Logotipo de Zephyrnet

El marco de gestión de riesgos del NIST tiene como objetivo mejorar la confiabilidad de la inteligencia artificial

Fecha:

26 de enero de 2023-WASHINGTON - El Instituto Nacional de Estándares y Tecnología (NIST) del Departamento de Comercio de EE. UU. ha publicado su Marco de gestión de riesgos de inteligencia artificial (IA RMF 1.0), un documento de orientación para uso voluntario de las organizaciones que diseñan, desarrollan, implementan o utilizan sistemas de IA para ayudar a gestionar los numerosos riesgos de las tecnologías de IA. 

El AI RMF sigue un dirección del Congreso para NIST para desarrollar el marco y fue producido en estrecha colaboración con los sectores público y privado. Su objetivo es adaptarse al panorama de la IA a medida que las tecnologías continúan desarrollándose y ser utilizado por organizaciones en diversos grados y capacidades para que la sociedad pueda beneficiarse de las tecnologías de IA y al mismo tiempo estar protegida de sus daños potenciales.

“Este marco voluntario ayudará a desarrollar e implementar tecnologías de IA de manera que permitan a los Estados Unidos, otras naciones y organizaciones mejorar la confiabilidad de la IA mientras gestionan los riesgos en función de nuestros valores democráticos”, dijo el subsecretario de Comercio, Don Graves. “Debería acelerar la innovación y el crecimiento de la IA mientras avanza, en lugar de restringir o dañar, los derechos civiles, las libertades civiles y la equidad para todos”. 

En comparación con el software tradicional, la IA plantea una serie de riesgos diferentes. Los sistemas de IA se entrenan con datos que pueden cambiar con el tiempo, a veces de manera significativa e inesperada, lo que afecta los sistemas de maneras que pueden ser difíciles de entender. Estos sistemas también son de naturaleza “sociotécnica”, es decir, están influenciados por la dinámica social y el comportamiento humano. Los riesgos de la IA pueden surgir de la compleja interacción de estos factores técnicos y sociales, que afectan la vida de las personas en situaciones que van desde sus experiencias con chatbots en línea hasta los resultados de las solicitudes de empleo y préstamos.   

El marco equipa a las organizaciones para pensar sobre la IA y el riesgo de manera diferente. Promueve un cambio en la cultura institucional, alentando a las organizaciones a abordar la IA con una nueva perspectiva, que incluye cómo pensar, comunicar, medir y monitorear los riesgos de la IA y sus posibles impactos positivos y negativos.

AI RMF proporciona un proceso flexible, estructurado y medible que permitirá a las organizaciones abordar los riesgos de IA. Seguir este proceso para gestionar los riesgos de la IA puede maximizar los beneficios de las tecnologías de la IA al tiempo que reduce la probabilidad de impactos negativos para las personas, los grupos, las comunidades, las organizaciones y la sociedad.

El marco es parte de un esfuerzo más amplio del NIST para cultivar la confianza en las tecnologías de IA, algo necesario si se quiere que la sociedad acepte ampliamente la tecnología, según la subsecretaria de Estándares y Tecnología y directora del NIST, Laurie E. Locascio. 

“El marco de gestión de riesgos de IA puede ayudar a las empresas y otras organizaciones de cualquier sector y tamaño a impulsar o mejorar sus enfoques de gestión de riesgos de IA”, dijo Locascio. “Ofrece una nueva forma de integrar prácticas responsables y orientación procesable para poner en funcionamiento una IA confiable y responsable. Esperamos que AI RMF ayude a impulsar el desarrollo de mejores prácticas y estándares”.

El AI RMF se divide en dos partes. La primera parte analiza cómo las organizaciones pueden enmarcar los riesgos relacionados con la IA y describe las características de los sistemas de IA confiables. La segunda parte, el núcleo del marco, describe cuatro funciones específicas: gobernar, mapear, medir y administrar, para ayudar a las organizaciones a abordar los riesgos de los sistemas de IA en la práctica. Estas funciones se pueden aplicar en casos de uso específicos del contexto y en cualquier etapa del ciclo de vida de la IA.

En estrecha colaboración con los sectores público y privado, el NIST ha sido desarrollando el AI RMF durante 18 meses. El documento reflexiona sobre 400 conjuntos de comentarios formales NIST recibió de más de 240 organizaciones diferentes en versiones preliminares del marco. NIST publicado hoy declaraciones de algunas de las organizaciones que ya se han comprometido a utilizar o promover el marco.

La agencia también lanzó hoy un complemento voluntario Libro de jugadas RMF de IA, que sugiere formas de navegar y utilizar el marco. 

NIST planea trabajar con la comunidad de IA para actualizar el marco periódicamente y agradece sugerencias para adiciones y mejoras al libro de jugadas en cualquier momento. Los comentarios recibidos a fines de febrero de 2023 se incluirán en una versión actualizada del libro de jugadas que se publicará en la primavera de 2023.

Además, NIST planea lanzar un Centro de recursos de IA confiable y responsable para ayudar a las organizaciones a poner en práctica AI RMF 1.0. La agencia alienta a las organizaciones a desarrollar y compartir perfiles de cómo lo utilizarían en sus contextos específicos. Las presentaciones pueden enviarse a GME@dhr-rgv.com.

NIST se compromete a continuar su trabajo con empresas, sociedad civil, agencias gubernamentales, universidades y otros para desarrollar orientación adicional. La agencia emitió hoy un hoja de ruta para ese trabajo.

El marco es parte de la amplia y creciente cartera de NIST de trabajo relacionado con la IA que incluye investigación fundamental y aplicada junto con un enfoque en medición y evaluación, estándares técnicos y contribuciones a la política de IA. 

punto_img

Información más reciente

punto_img