Se llevó a cabo un esfuerzo internacional sin precedentes con el propósito de establecer estándares de ciberseguridad en el software de inteligencia artificial. Estados Unidos y el Reino Unido anunciaron conjuntamente una guía el domingo por la noche, considerada un paso significativo hacia la creación de protocolos de ciberseguridad para herramientas de aprendizaje automático.

La guía, denominada “Directrices para el desarrollo seguro de sistemas de IA“, fue desarrollada por la Agencia de Seguridad e Infraestructura de Ciberseguridad de EE. UU. y el Centro Nacional de Seguridad Cibernética del Reino Unido, con la colaboración de otras 21 entidades gubernamentales a nivel global. Estas directrices representan el primer conjunto de normas internacionales acordadas para el desarrollo de inteligencia artificial.

Dada la importancia estratégica de liderar la definición de estándares globales para la inteligencia artificial y otras tecnologías emergentes, expertos han subrayado que la fortaleza económica y la seguridad nacional de Estados Unidos están vinculadas a este liderazgo.

El secretario de Seguridad Nacional, Alejandro Mayorkas, destacó la relevancia de la ciberseguridad en la construcción de sistemas de inteligencia artificial seguros y confiables, considerando este momento como crucial en el desarrollo de la inteligencia artificial, que podría ser la tecnología más significativa de nuestro tiempo.

La guía propone un enfoque seguro desde el diseño para entrenar sistemas de aprendizaje automático, estableciendo cuatro pasos esenciales para reducir riesgos de ciberseguridad y vulnerabilidades en los sistemas de inteligencia artificial: diseño seguro, desarrollo seguro, implementación segura y operación y mantenimiento seguros.

El diseño seguro incluye el modelado de amenazas como parte integral del mapeo de sistemas de inteligencia artificial y su funcionamiento. Los pasos de desarrollo e implementación seguros sugieren la creación de protocolos para informar sobre amenazas, abordando la seguridad de la cadena de suministro, documentación y gestión de activos y deuda técnica al utilizar sistemas de inteligencia artificial en operaciones.

El componente final, mantenimiento seguro, requiere una vigilancia constante a lo largo del ciclo de vida del software de inteligencia artificial, involucrando esfuerzos como el registro y monitoreo, gestión de actualizaciones y el intercambio de información.

Cada paso de la guía tiene como objetivo abordar los diversos riesgos de ciberseguridad asociados con las tecnologías de inteligencia artificial y aprendizaje automático. Se destaca la importancia de mantener conjuntos de datos limpios para entrenar algoritmos de inteligencia artificial y controlar el acceso a datos confidenciales y activos digitales utilizados en modelos de aprendizaje automático. La colaboración internacional liderada por estas agencias busca fomentar la transparencia, la responsabilidad y prácticas seguras en el desarrollo de sistemas de inteligencia artificial en todo el mundo.

Te puede interesar: Estados Unidos advierte a Israel sobre la próxima fase de operación militar en el sur de Gaza

Redacción
Equipo de redacción de Escenario Mundial. Contacto: info@escenariointernacional.com

1 COMENTARIO

Dejá tu comentario