El rápido desarrollo de la tecnología en los últimos años trajo consigo un miedo inherente a la inteligencia artificial, el cual, paradógicamente, intensifica no solo las tensiones globales, sino que transforma el propio enfoque de la ciberseguridad. Con la reciente introducción del modelo chino de IA DeepSeek, las advertencias del Vaticano sobre “la sombra del mal” y la falta de consenso respecto a los usos legítimos de la IA en escenarios de conflicto, las preocupaciones de la sociedad no harán más que intensificarse.

El problema de la securitización de la inteligencia artificial
No obstante, ninguna de estas amenazas es más poderosa que el temor que generan. Una securitización prematura de la IA podría incluso desembocar en una escalada innecesaria, especialmente si la disuasión se percibe como la táctica predominante, un error que ya se cometió con la ciberseguridad.
La inteligencia artificial está recorriendo un camino de percepción de riesgos y escalada similar al que atravesó la ciberguerra: una securitización precipitada impulsada por el miedo a lo desconocido y una exageración de las amenazas sin suficiente respaldo en evidencia empírica. Al igual que en el caso de la ciberguerra, la IA no es el verdadero peligro para la ciberseguridad, sino la hipérbole en torno a ella. Si no se manejan desde ahora los temores asociados a la ciberseguridad y la IA, estos podrían descontrolarse con rapidez.
La magnificación de la amenaza que representa la inteligencia artificial para la ciberseguridad genera un problema adicional de seguridad percibida, que compite por atención y recursos con desafíos concretos que afectan a las personas hoy en día, como una posible mayor asertividad de Rusia más allá de Ucrania, la seguridad alimentaria, los desastres naturales, el cambio climático y la desinformación. La respuesta política más sensata en este momento sería analizar escenarios reales y sus efectos en el ámbito de la ciberseguridad y la IA, utilizando la evolución de la ciberguerra como punto de referencia.
¿Es la IA una amenaza?
El alarmismo en torno al impacto de la inteligencia artificial en la ciberseguridad surgió rápidamente y parece poco probable que la exageración pierda fuerza. El Centro para la Seguridad de la IA ha señalado el posible mal uso de la inteligencia artificial como un “riesgo de extinción”, mientras que la investigadora en ciberseguridad de Carnegie Europe, Raluca Csernatoni, ha descrito el fenómeno como una “fiebre del oro” militar y un “arma de doble filo para la seguridad nacional”.

La OTAN, por su parte, ha manifestado su preocupación sobre el uso de la IA como herramienta de “interferencia adversaria”. Y, como suele ocurrir con cualquier amenaza emergente, no falta la referencia a una supuesta “carrera armamentista”.
En el mismo comunicado en el que se advirtió sobre una posible carrera armamentista impulsada por la IA, el gobierno del Reino Unido afirmó que “la guerra cibernética es ahora una realidad diaria”. Munich Re, una de las principales aseguradoras especializadas en ciberseguridad, sostiene que los ciberataques se han convertido en “una parte muy esencial y muy eficaz de la guerra”.
El sobrealarmismo de la IA en el escenario internacional
Sin embargo, tales afirmaciones omiten los resultados “decepcionantes” de la ciberguerra librada por Rusia en su reciente conflicto con Ucrania, la ineficacia comprobada de las armas cibernéticas y las dificultades para integrar capacidades digitales en operaciones de combate convencionales.
La construcción y amplificación de amenazas a través del discurso no es un fenómeno nuevo en la seguridad cibernética, incluso cuando hay suficiente análisis y evidencia que sugieren lo contrario. En definitiva, la experiencia con la ciberguerra ha demostrado que la evidencia empírica pierde relevancia cuando la percepción colectiva insiste en que una “gran guerra” es inminente. Y las alertas sobre un posible evento de extinción provocado por la IA reflejan que el temor a lo desconocido sigue vigente, incluso cuando el análisis y los datos apuntan en otra dirección.
De acuerdo al Royal United Services Institute (RUSI), si bien es fundamental comprender mejor los riesgos que la inteligencia artificial puede representar dentro del ámbito de la ciberseguridad, la obsesión por predecir escenarios catastróficos ignora factores atenuantes, como el uso defensivo de la IA para contrarrestar ataques impulsados por esta tecnología.
Te puede interesar: El impacto de la inteligencia artificial en la seguridad nacional de Estados Unidos
Fuente: Royal United Services Institute (RUSI)












