Logotipo de Zephyrnet

Foro del modelo Frontier

Fecha:

Los gobiernos y la industria están de acuerdo en que, si bien la IA ofrece una gran promesa para beneficiar al mundo, se requieren barandas adecuadas para mitigar los riesgos. Los gobiernos de EE. UU. y el Reino Unido, la Unión Europea, la OCDE, el G7 (a través del proceso de IA de Hiroshima) y otros ya han hecho contribuciones importantes a estos esfuerzos. 

Para aprovechar estos esfuerzos, se necesita más trabajo sobre estándares de seguridad y evaluaciones para garantizar que los modelos de IA de frontera se desarrollen y desplieguen de manera responsable. El Foro será un vehículo para debates y acciones entre organizaciones sobre seguridad y responsabilidad de la IA.  

El Foro se centrará en tres áreas clave durante el próximo año para apoyar el desarrollo seguro y responsable de los modelos de IA de frontera:

  • Identificación de las mejores prácticas: Promover el intercambio de conocimientos y mejores prácticas entre la industria, los gobiernos, la sociedad civil y la academia, con un enfoque en los estándares de seguridad y las prácticas de seguridad para mitigar una amplia gama de riesgos potenciales. 
  • Avances en la investigación de seguridad de la IA: Apoye el ecosistema de seguridad de la IA identificando las preguntas de investigación abiertas más importantes sobre la seguridad de la IA. El foro coordinará la investigación para avanzar en estos esfuerzos en áreas como la solidez de los adversarios, la interpretabilidad mecánica, la supervisión escalable, el acceso a la investigación independiente, los comportamientos emergentes y la detección de anomalías. Inicialmente, habrá un fuerte enfoque en desarrollar y compartir una biblioteca pública de evaluaciones técnicas y puntos de referencia para modelos de IA de frontera.
  • Facilitar el intercambio de información entre empresas y gobiernos: Establecer mecanismos seguros y confiables para compartir información entre empresas, gobiernos y partes interesadas relevantes con respecto a la seguridad y los riesgos de la IA. El Foro seguirá las mejores prácticas en divulgación responsable de áreas como la ciberseguridad.


Kent Walker, Presidente, Asuntos Globales, Google & Alphabet, dijo: “Estamos entusiasmados de trabajar junto con otras empresas líderes, compartiendo experiencia técnica para promover la innovación responsable en IA. Todos vamos a tener que trabajar juntos para asegurarnos de que la IA beneficie a todos”.

Brad Smith, vicepresidente y presidente de Microsoft, dijo: “Las empresas que crean tecnología de IA tienen la responsabilidad de garantizar que sea segura y permanezca bajo control humano. Esta iniciativa es un paso vital para unir al sector tecnológico en el avance de la IA de manera responsable y abordar los desafíos para que beneficie a toda la humanidad”.

Anna Makanju, Vicepresidenta de Asuntos Globales de OpenAI, dijo: “Las tecnologías avanzadas de IA tienen el potencial de beneficiar profundamente a la sociedad, y la capacidad de lograr este potencial requiere supervisión y gobernanza. Es vital que las empresas de IA, especialmente aquellas que trabajan en los modelos más potentes, se alineen en un terreno común y promuevan prácticas de seguridad reflexivas y adaptables para garantizar que las poderosas herramientas de IA tengan el mayor beneficio posible. Este es un trabajo urgente y este foro está bien posicionado para actuar rápidamente para mejorar el estado de la seguridad de la IA”. 

Dario Amodei, director ejecutivo de Anthropic dijo: “Anthropic cree que la IA tiene el potencial de cambiar fundamentalmente cómo funciona el mundo. Estamos emocionados de colaborar con la industria, la sociedad civil, el gobierno y la academia para promover el desarrollo seguro y responsable de la tecnología. El Frontier Model Forum desempeñará un papel vital en la coordinación de las mejores prácticas y el intercambio de investigaciones sobre la seguridad de la IA en la frontera”.

punto_img

Información más reciente

punto_img