Logotipo de Zephyrnet

CISA y NCSC lideran esfuerzos para elevar los estándares de seguridad de la IA

Fecha:

La Agencia Nacional de Seguridad Cibernética (NCSC) del Reino Unido y la Agencia de Seguridad de Infraestructura y Ciberseguridad (CISA) de EE. UU. han publicado una guía oficial para proteger las aplicaciones de IA, un documento que las agencias esperan garantice que la seguridad es inherente al desarrollo de la IA.

La agencia de espionaje británica dice que documento de guía es el primero de su tipo y cuenta con el respaldo de otros 17 países.

Conduciendo el publicación Es el temor de larga data de que la seguridad sea una ocurrencia tardía a medida que los proveedores de sistemas de IA trabajan para mantenerse al día con el ritmo del desarrollo de la IA.

Lindy Cameron, directora ejecutiva del NCSC, dijo a principios de este año que la industria tecnológica tiene un historial de dejar la seguridad como una consideración secundaria cuando el ritmo del desarrollo tecnológico es alto.

Hoy, las Directrices para el desarrollo seguro de sistemas de IA volvieron a llamar la atención sobre esta cuestión y agregaron que la IA también estará invariablemente expuesta a nuevas vulnerabilidades.

"Sabemos que la IA se está desarrollando a un ritmo fenomenal y es necesaria una acción internacional concertada, entre los gobiernos y la industria, para mantener el ritmo", afirmó Cameron.

“Estas Directrices marcan un paso significativo en la configuración de una comprensión común y verdaderamente global de los riesgos cibernéticos y las estrategias de mitigación en torno a la IA para garantizar que la seguridad no sea una posdata del desarrollo sino un requisito fundamental en todo momento. 

"Estoy orgulloso de que el NCSC esté liderando esfuerzos cruciales para elevar el nivel de seguridad cibernética de la IA: un ciberespacio global más seguro nos ayudará a todos a aprovechar de manera segura y confiada las maravillosas oportunidades de esta tecnología".

Las directrices adoptan una seguro por diseño enfoque, idealmente ayudando a los desarrolladores de IA a tomar las decisiones más seguras cibernéticamente en todas las etapas del proceso de desarrollo. Se aplicarán a aplicaciones creadas desde cero y a aquellas creadas sobre recursos existentes.

La lista completa de países que respaldan la guía, junto con sus respectivas agencias de ciberseguridad, se encuentra a continuación:

  • Australia: Centro Australiano de Seguridad Cibernética (ACSC) de la Dirección Australiana de Señales 
  • Canadá – Centro Canadiense de Seguridad Cibernética (CCCS) 
  • Chile – CSIRT del Gobierno de Chile
  • Chequia – Agencia Nacional de Seguridad Cibernética y de la Información de Chequia (NUKIB)
  • Estonia – Autoridad de Sistemas de Información de Estonia (RIA) y Centro Nacional de Seguridad Cibernética de Estonia (NCSC-EE)
  • Francia – Agencia Francesa de Ciberseguridad (ANSSI)
  • Alemania – Oficina Federal de Seguridad de la Información (BSI) de Alemania
  • Israel – Dirección Nacional Cibernética de Israel (INCD)
  • Italia – Agencia Nacional Italiana de Ciberseguridad (ACN)
  • Japón: Centro Nacional de Preparación para Incidentes y Estrategia para la Ciberseguridad de Japón (NISC; Secretaría de Política de Ciencia, Tecnología e Innovación de Japón, Oficina del Gabinete
  • Nueva Zelanda – Centro Nacional de Seguridad Cibernética de Nueva Zelanda
  • Nigeria - Agencia Nacional de Desarrollo de Tecnología de la Información de Nigeria (NITDA)
  • Noruega – Centro Nacional Noruego de Seguridad Cibernética (NCSC-NO)
  • Polonia – Instituto Nacional de Investigación NASK de Polonia (NASK)
  • República de Corea - Servicio de Inteligencia Nacional de la República de Corea (NIS)
  • Singapur – Agencia de Seguridad Cibernética de Singapur (CSA)
  • Reino Unido de Gran Bretaña e Irlanda del Norte – Centro Nacional de Seguridad Cibernética (NCSC)
  • Estados Unidos de América – Agencia de Infraestructura y Ciberseguridad (CISA); Agencia de Seguridad Nacional (NSA; Oficina Federal de Investigaciones (FBI)

Las directrices se dividen en cuatro áreas de enfoque clave, cada una con sugerencias específicas para mejorar cada etapa del ciclo de desarrollo de la IA.

1. Diseño seguro

Como sugiere el título, las directrices establecen que la seguridad debe considerarse incluso antes de que comience el desarrollo. El primer paso es concienciar al personal sobre los riesgos de seguridad de la IA y sus mitigaciones. 

Luego, los desarrolladores deben modelar las amenazas a su sistema, considerando también prepararlas para el futuro, como tener en cuenta la mayor cantidad de amenazas a la seguridad que surgirán a medida que la tecnología atraiga a más usuarios y futuros desarrollos tecnológicos como ataques automatizados.

También se deben tomar decisiones de seguridad con cada decisión de funcionalidad. Si en la fase de diseño un desarrollador es consciente de que los componentes de la IA desencadenarán determinadas acciones, es necesario plantearse preguntas sobre la mejor manera de asegurar este proceso. Por ejemplo, si la IA va a modificar archivos, entonces se deben agregar las salvaguardas necesarias para limitar esta capacidad solo a los límites de las necesidades específicas de la aplicación.

2. Desarrollo seguro

Asegurar la etapa de desarrollo incluye orientación sobre la seguridad de la cadena de suministro, el mantenimiento de documentación sólida, la protección de activos y la gestión de la deuda técnica.

La seguridad de la cadena de suministro ha sido un punto de especial atención para los defensores en los últimos años, con una serie de ataques de alto perfil que llevaron a gran número de víctimas

Es importante garantizar que los proveedores utilizados por los desarrolladores de IA estén verificados y operen con altos estándares de seguridad, al igual que contar con planes para cuando los sistemas de misión crítica experimenten problemas.

3. Implementación segura

La implementación segura implica proteger la infraestructura utilizada para respaldar un sistema de inteligencia artificial, incluidos los controles de acceso para API, modelos y datos. Si se manifestara un incidente de seguridad, los desarrolladores también deberían contar con planes de respuesta y remediación que asuman que los problemas surgirán algún día.

La funcionalidad del modelo y los datos en los que se entrenó deben protegerse de ataques continuamente y deben divulgarse de manera responsable, solo cuando hayan sido sometidos a evaluaciones de seguridad exhaustivas. 

Los sistemas de inteligencia artificial también deberían facilitar que los usuarios estén seguros de forma predeterminada, haciendo que, cuando sea posible, la opción o configuración más segura sea la predeterminada para todos los usuarios. La transparencia sobre cómo se utilizan, almacenan y acceden a los datos de los usuarios también es clave.

4. Operación y mantenimiento seguros

La última sección cubre cómo proteger los sistemas de IA una vez implementados. 

El monitoreo es el núcleo de gran parte de esto, ya sea el comportamiento del sistema para rastrear los cambios que pueden afectar la seguridad o lo que se ingresa al sistema. Cumplir con los requisitos de privacidad y protección de datos requerirá monitoreo y registro insumos para detectar signos de mal uso. 

Las actualizaciones también deben publicarse automáticamente de forma predeterminada para que no se utilicen versiones desactualizadas o vulnerables. Por último, ser un participante activo en comunidades de intercambio de información puede ayudar a la industria a comprender las amenazas a la seguridad de la IA, ofreciendo más tiempo a los defensores para idear mitigaciones que a su vez podrían limitar posibles ataques maliciosos. ®

punto_img

Información más reciente

punto_img