El uso de IA militar en sistemas autónomos y de apoyo a la toma de decisiones está transformando el campo de batalla, pero también plantea riesgos sin precedentes para la protección de civiles y la identificación de objetivos, con implicaciones críticas para la seguridad internacional. Un informe reciente del SIPRI advierte que el sesgo algorítmico (originado en desigualdades estructurales y decisiones de diseño) puede derivar en consecuencias humanitarias graves. Estas van desde clasificar erróneamente a personas y objetos protegidos como blancos militares hasta no detectar poblaciones vulnerables, incrementando la posibilidad de violaciones al Derecho Internacional Humanitario (DIH) y el daño colateral en zonas de conflicto.
Identificación errónea y fallos críticos, los riesgos del sesgo algorítmico en la guerra
El informe del SIPRI detalla que los sistemas de IA militar pueden incorporar sesgos en múltiples etapas: desde la recopilación y el etiquetado de datos, pasando por el desarrollo de algoritmos, hasta el despliegue en escenarios de combate. Estas distorsiones no siempre son visibles para los operadores humanos, pero tienen efectos potencialmente devastadores. Un ejemplo crítico es la identificación errónea. Este escenario, cuando un sistema sesgado clasifica incorrectamente a civiles, infraestructuras médicas o zonas protegidas como objetivos legítimos, incrementa notablemente el riesgo de ataques ilegales.

Del mismo modo, el fallo en la identificación puede llevar a omitir la presencia de poblaciones vulnerables en áreas de operaciones, como personas con discapacidad, comunidades sin acceso a tecnología o grupos étnicos subrepresentados en los conjuntos de datos. Estos problemas reflejan que la integración de IA en contextos militares no es únicamente un desafío tecnológico, sino también ético, legal y humanitario. Los sistemas pueden aprender y amplificar desigualdades preexistentes, replicando estereotipos sociales, culturales o raciales.
Además, el uso de indicadores indirectos o proxies (como patrones de comunicación, movimientos corporales o hábitos digitales) aumenta el riesgo de etiquetar comportamientos civiles como amenazas militares. En escenarios altamente dinámicos, donde la línea entre combatientes y no combatientes es difusa, la dependencia de algoritmos para la selección de objetivos puede derivar en consecuencias irreversibles, comprometiendo la seguridad y debilitando la aplicación del DIH.
Impacto legal y humanitario del sesgo en sistemas autónomos de armas
El SIPRI advierte que los sistemas de IA militar sesgados pueden alterar de forma significativa los criterios para seleccionar objetivos, generando riesgos operativos y políticos. En conflictos recientes, se ha documentado que algunos algoritmos priorizan características físicas o patrones de comportamiento que no siempre corresponden a indicadores de amenaza real, como la postura corporal, el uso de determinados tipos de dispositivos móviles o la presencia en zonas de alta actividad bélica. Este tipo de inferencias puede llevar a clasificar a civiles como combatientes, aumentando la probabilidad de daños colaterales y violaciones al DIH.

Para mitigar estos riesgos, el informe propone integrar mecanismos de supervisión humana significativa (meaningful human control), transparencia algorítmica y auditorías independientes en todas las etapas de desarrollo y despliegue. Además, recomienda que los Estados adopten protocolos conjuntos para verificar los datos utilizados por sistemas de armas autónomas, estableciendo estándares internacionales que reduzcan el impacto de sesgos sistemáticos. Sin embargo, el SIPRI advierte que mientras la regulación global sea limitada, los riesgos para la seguridad civil persistirán.
Te puede interesar: Informe expone que la inteligencia artificial DeepSeek ayudo a las Fuerzas Armadas de China














