El Consejo de Seguridad de las Naciones Unidas y expertos del sector se reunieron por primera vez en la historia para debatir acerca de las oportunidades y riesgos que presenta la utilización de la inteligencia artificial. De esta manera, se reconoció la urgente necesidad de establecer un marco regulatorio global para evitar la utilización con fines maliciosos, a la vez que, se pusieron de manifiesto los potenciales beneficios para cumplir con los Objetivos de Desarrollo Sostenible.

El pasado martes 18 de julio, el secretario general de la ONU, António Guterres, instó al Consejo de Seguridad a abordar la temática de la inteligencia artificial (IA) con suma urgencia, generando así un debate con una perspectiva de gobernanza global. En este sentido, destacó la necesidad de regular los sistemas de IA apoyando la creación de una entidad ad hoc administrada por la ONU, como lo es en su sector, por ejemplo, el Organismo Internacional de Energía Atómica (OIEA).

El titular de la ONU advirtió también sobre las aplicaciones militares de la IA sosteniendo que “las barreras técnicas y financieras de acceso son bajas, incluso, para delincuentes y terroristas”. Así, describió las nocivas implicancias de una aplicación de la IA con fines terroristas o criminales, particularmente, aludiendo a la autonomía de armas “letales” operadas por IA, para las cuales solicitó el establecimiento de una legislación global vinculante para 2026 que prohíba su uso.

Por otra parte, remarcó la utilización de la IA por parte de la ONU en materia de ciberseguridad para identificar esquemas de violencia o monitorear treguas, a la vez que, hizo alusión a ataques cibernéticos contra la propia ONU que generan caos en sus operaciones humanitarias y de mantenimiento de la paz.

IBS Américas
¿Cómo puede regularse la IA?

Una de las grandes preocupaciones que tuvo lugar en el extenso debate del Consejo de Seguridad de la ONU, fue el rol preponderante que tienen las grandes empresas tecnológicas a la hora de generar sistemas de IA que no comprometan los derechos fundamentales y que apelen a la seguridad.

Ante la posibilidad de que cualquier normativa quede obsoleta, en vistas de su rápido e impredecible avance, es preferible la regulación frente a la utilización en casos concretos y no sobre la tecnología per se, actualizando dicha regulación en períodos sistemáticamente cortos. Este es el caso particular de la Unión Europea, que desde 2021 viene trabajando en impulsar la primera ley integral sobre IA del mundo (se sancionaría a fin de este año).

Bruselas es quien más ha trabajado en generar un sólido marco normativo de gobernanza global sobre el desarrollo y uso de la IA, el cual no sea solo legal o técnico, sino que también conlleve un conjunto de principios morales y éticos.

Así, sobre la base de la supervisión humana y no por la automatización, propone que los sistemas de IA se analicen y clasifiquen según el riesgo que suponen para los usuarios (en términos de derechos fundamentales y seguridad). En este sentido, de acuerdo al nivel de riesgo, se adjudicará una mayor o menor regulación. Para los casos de riesgo inaceptable, serán prohibidos, por ejemplo, los sistemas de identificación biométrica en tiempo real y a distancia (salvo para investigar delitos graves previa aprobación judicial). En situaciones de alto riesgo, serán evaluados antes de su comercialización y a lo largo de todo su ciclo de vida, por ejemplo, los sistemas de gestión de la migración, el asilo y el control de fronteras. En cuanto al riesgo limitado, deberán cumplir requisitos de transparencia (para evitar la desinformación) aquellos sistemas de IA generativa (como ChatGPT) que generen o manipulen contenidos de texto, imagen, audio o video, por ejemplo, revelando qué contenido ha sido generado por una IA.

Por su parte, Washington mantuvo reuniones recientemente con los máximos representantes de 7 grandes empresas tecnológicas estadounidenses (Amazon, Inflection AI, Anthropic, Google, Meta, Microsoft y Open AI), los cuales se comprometieron a adoptar, inmediatamente, medidas tendientes a establecer un avance seguro y transparente de la IA. Así, las regulaciones recaen sobre la realización de pruebas de seguridad de sus sistemas de IA (y la publicación de los respectivos resultados de esas pruebas) previo a su comercialización, implementación de marcas de agua para detectar qué contenido fue generado por una IA e investigar sobre determinados riesgos como la discriminación o agravios a la privacidad de los usuarios. Cabe remarcar que, estas regulaciones estarán sujetas a la voluntad de las empresas involucradas en cuestión, es decir, no se trata de un proyecto de ley como el que buscará aprobar el Parlamento Europeo.

Por otro lado, desde Pekín se hicieron públicas una serie de regulaciones sobre la IA que entrarán en vigor a partir del 15 de agosto. Entre las principales medidas anunciadas por la Administración del Ciberespacio de China, el organismo de vigilancia cibernética chino, se encuentra la obligación de registrar los algoritmos de aquellas empresas que desarrollen sistemas de IA generativa, si es que estos eventualmente generan influencia en la opinión pública. En consonancia con su regulación en otras áreas vinculadas a la tecnología avanzada, como las redes sociales, China aplica severas restricciones al usuario para tomar el control de los flujos de información.

Pero, más allá de lo expuesto anteriormente, existe un riesgo inherente para los gobiernos de las principales potencias mundiales, que excede a dichas regulaciones, que es el incentivo de estar a la vanguardia en la carrera armamentística por la IA. En un contexto de alta competencia tecnológica, las potencias buscan desarrollar la tecnología más poderosa en términos de efecto destructivo (para contrarrestar eventuales ataques adversarios), lo que podría desencadenar consecuencias catastróficas para la paz y la seguridad internacionales.

¿Qué nos depara el avance de la IA?

La reunión del Consejo de Seguridad de la ONU para debatir acerca de la IA, formalizó un hito a nivel internacional. No es la primera vez que la humanidad debe lidiar con la introducción de una innovación que genera beneficios y amenazas, pero lo cierto es que mientras el mundo asiste al rápido avance de la IA parece no estar preparado para sus implicancias futuras, debido a que aún existe mucho desconocimiento sobre los alcances a largo plazo de esta tecnología.

Es por esto que, no es casual que diversos expertos en la materia, organismos internacionales, científicos, entre otros, hicieran mayor hincapié sobre las amenazas que sobre los beneficios de la IA (se estima que en 2030 la IA podría aportar entre 10 y 15 billones de dólares a la economía mundial). Por lo tanto, cabe preguntarse si la comunidad internacional será capaz de gestionar de manera correcta los potenciales riesgos de la IA, de manera tal que se aseguren esos beneficios.

Está claro que prohibir el desarrollo de nuevos sistemas de IA ya no es para nada una opción. Al utilizarse tanto para buenos como para malos propósitos, estarán aquellos que desarrollen sistemas cada vez más sofisticados para atentar contra la ciberseguridad, así como también estarán aquellos que quieran utilizar la IA para diseñar armas nucleares o lanzar ataques bioterroristas. Los esfuerzos por detener esas amenazas constituirán el mayor desafío de estos tiempos.

Te puede interesar: El FMI y su preocupación por la Inteligencia Artificial

Valentín Andrada
Estudiante avanzado de la Licenciatura en Ciencia Política (UNRC) con orientación en Administración Pública. Colaborador de Escenario Mundial. Interesado en Ciencia de Datos e IA.

Dejá tu comentario