El uso militar de la inteligencia artificial (IA) dejó hace tiempo de ser una cuestión futurista para convertirse en una realidad crítica y urgente en los conflictos actuales. El nuevo informe del Instituto Internacional de Estudios para la Paz de Estocolmo (SIPRI) advierte que las aplicaciones militares de la IA, desde sistemas de armas autónomas hasta plataformas de apoyo a la toma de decisiones, plantean riesgos crecientes para la paz y la estabilidad internacional..

El informe señala que la presencia de IA ya es palpable en zonas de conflicto. En Ucrania, Rusia ha desplegado tecnologías emergentes para optimizar operaciones de ataque, mientras que en Gaza se reportó el uso de algoritmos por parte de Israel para identificar decenas de miles de objetivos, alimentando el debate sobre proporcionalidad y control humano significativo. A grandes rasgos, el SIPRI Yearbook 2025 ofrece un diagnóstico preocupante: las armas se modernizan, las guerras se expanden y las tensiones nucleares alcanzan niveles que no se veían desde la Guerra Fría.
Armas autónomas: más debates que consensos
Una de las principales preocupaciones del SIPRI recae en la falta de consenso sobre definiciones concretas en la temática, como el término “armas autónomas letales”. Y es que, sin dudas, difícilmente puede abordarse un problema si sus límites son difusos.

Si bien el sistema de Naciones Unidas debate desde 2013 el futuro de los sistemas de armas autónomas (AWS), aún no existen definiciones específicas ni se han logrado avances plenamente significativos sobre su definición. Actualmente, muchos Estados adoptan la definición de “sistemas de armas que, una vez activados, pueden seleccionar y atacar un objetivo sin intervención adicional de un operador humano”, con sus siglas LAWS. Otros sostienen que “AWS” es preferible, ya que “la letalidad se refiere a cómo se utiliza el sistema de armas y sus efectos en lugar de la forma en que está diseñado, y que AWS son capaces de causar daño en forma de daños materiales o lesiones, independientemente de si la muerte fue el resultado previsto o real”.
Definitivamente persisten los desacuerdos en el tablero internacional, incluso en aspectos básicos como la definición de estas armas, el grado de supervisión humana requerido o los límites legales aceptables. Además, para algunos Estados acordar una definición es un requisito previo para cualquier debate sobre regulación; para otros, basta con acordar una “caracterización de trabajo” para identificar los elementos de la regulación. Las tensiones entre los principios del derecho internacional humanitario y la presión por mantener ventajas tecnológicas siguen tensando las conversaciones e imposibilitando el alcance de acuerdos.
El avance de la Inteligencia Artificial y sus riesgos asociados
Según este reconocido instituto internacional, el escenario global actual está signado por una creciente inestabilidad, con grandes potencias que cuestionan el orden establecido y actores regionales que reconfiguran alianzas en un mundo cada vez más volátil. A ello se suma que el orden internacional es testigo de cómo la tecnología gana cada vez más terreno, tanto en el ámbito diplomático como en los momentos de conflicto.
Puntualmente, la Inteligencia Artificial se posiciona como un desafío creciente para la paz y la seguridad internacional. La multiplicidad de usos de esta herramienta ha llevado a que los diversos actores internacionales comiencen a implementarla con fines diversos, como por ejemplo en los conflictos armados.

La preocupación desde los Estados crece cuando se observa que el uso de la IA cae en manos de “actores maliciosos” o no estatales. No solo porque impide el control y la regulación de esta clase de tecnologías, sino que también puede ser utilizada con fines no pacíficos, como el desarrollo de armas prohibidas (químicas, biológicas, radiológicas y nucleares) o la difusión de desinformación.
“La IA proporciona un aumento de la capacidad y reduce la barrera para que los ciberdelincuentes y los hackers lleven a cabo operaciones dañinas. Las herramientas de IA generativa pueden utilizarse indebidamente para difundir información. Los avances de la IA están a punto de aportar enormes beneficios, pero también pueden crear o exacerbar las amenazas existentes para la paz y la seguridad internacionales”, destaca el SIPRI.
En este contexto, los países han comenzado a reconocer la necesidad de gestionar estos complejos riesgos -provocados por la IA civil y militar- mediante la creación de nuevos foros e iniciativas. Por ende, la temática lideró las agendas de estos encuentros multilaterales en los últimos años. Y si bien queda un largo camino por recorrer, el pasado 2024 dejó una enseñanza: los avances de la IA, civil o militarmente, son más tangibles que nunca.
Multiplicidad de frentes
Si bien aún queda mucho por debatir, considerando las discusiones sobre las definiciones en materia de tecnología, los países, mientras tanto, siguen combatiendo convencionalmente, aunque con más herramientas en el campo de batalla. Se destaca el uso de drones y misiles hipersónicos, pero también de soldados y trincheras, a la “vieja usanza”.
Más allá de la ONU, diversos espacios intentan construir consensos para abordar esta problemática. Ya sea la Cumbre REAIM, organizada por Corea del Sur y Países Bajos, o la Declaración Política sobre IA Militar Responsable de Estados Unidos ya firmada por más de 50 países, la multiplicidad de iniciativas revelan una realidad: crece el número de foros y documentos voluntarios, pero el mundo carece aún de un marco normativo vinculante que limite el uso irresponsable o descontrolado de tecnologías de IA en contextos militares.
Te puede interesar: Las nuevas tecnologías están transformando las tácticas de guerra, según el SIPRI













