Logotipo de Zephyrnet

DARPA lanza concurso para construir defensores de software de IA

Fecha:

Sombrero Negro En un anuncio sorpresa en el discurso de apertura de Black Hat hoy, DARPA dio a conocer lo que llama un AI Cyber ​​​​Challenge (AIxCC). Esa es una competencia de dos años para construir sistemas protectores de aprendizaje automático que puedan salvaguardar el software y, por lo tanto, la infraestructura crítica.

El concurso, que comienza el miércoles, enfrentará a los equipos entre sí para construir modelos que puedan identificar riesgos dentro del código, bloquear ataques contra esas vulnerabilidades y abordar estas fallas. Se espera que estos modelos, una vez capaces de proteger las aplicaciones en general, puedan defender la infraestructura de TI a nivel de software.

Anthropic, OpenAI, Google y Microsoft se han comprometido a proporcionar asesoramiento y software para que lo utilicen los participantes, y la Open Source Security Foundation (AbiertoSSF) también está en el equipo.

Más detalles de fondo, reglas y plazos se puede encontrar aquí.

“El impulso para esto proviene de DARPA, y cuando nos acercamos a personas como Anthropic y otros sobre esto, dijeron que estaban pensando exactamente lo mismo”, dijo el gerente del programa AIxCC, Perri Adams. El registro en Las Vegas hoy temprano. Agregó que todo esto se está uniendo "en un clima en el que estamos viendo una tecnología de inteligencia artificial fantástica".

“Hay mucha gente que ve que la IA tiene un enorme potencial para proteger el código y esa fue una oportunidad realmente fantástica”, agregó. “En lo que nos estamos enfocando es en tratar de asegurar una franja de software lo más amplia posible. Entonces, estamos tratando de modelar desafíos en software de propósito general porque eso es lo que encontramos en los sistemas de infraestructura crítica”.

Darpa

Perri Adams, gerente del programa AIxCC de DARPA, les dice a los asistentes de Black Hat que hay millones sobre la mesa

DARPA, el centro neurálgico de investigación de las fuerzas armadas de los EE. UU., está invitando a aquellos que deseen participar a registrarse, ya sea para una vía abierta autofinanciada o una vía financiada, la última de las cuales aceptará hasta siete pequeñas empresas seleccionadas que serán dado tanto como $ 1 millón cada uno para competir. La inscripción para la partición financiada debe realizarse antes del 19 de septiembre, mientras que los concursantes de la pista abierta tienen hasta el 15 de diciembre para inscribirse.

En la primavera de 2024, los equipos competirán en una serie de pruebas para determinar la elegibilidad para la competencia semifinal, donde los 20 mejores equipos competirán en la conferencia DEF CON del próximo año. Los cinco mejores equipos de esa competencia obtendrán $2 millones cada uno en premios.

El año siguiente, en DEF CON en 2025, los cinco finalistas competirán por un premio mayor de $4 millones, con $3 millones para el segundo lugar y $1.5 millones para el tercero. Los equipos necesitarán al menos un ciudadano o residente permanente de EE. UU. en el equipo para poder participar.

Eso es un total de $ 18.5 millones y $ 7 millones para los participantes de pequeñas empresas.

“Cuando las personas escuchan seguridad e IA, todas las sinapsis comienzan a activarse, pero esto no se centra en 'es seguro el modelo', sino en 'supongamos que tenemos esta increíble herramienta llamada IA, ahora, ¿cómo la aplicamos en grandes cantidades de software'”, nos dijo Omkhar Arasaratnam, gerente general de OpenSSF.

"Si es ingeniero de software y está usando zlib en su teléfono o en una distribución de Linux en su escritorio, todavía es zlib y debemos asegurarnos de que se apliquen las mismas propiedades de seguridad".

Ese enfoque está integrado en AIxCC: salvaguardar el código donde sea que esté, o eso nos parece.

Tantas cajas negras

AI fue un tema recurrente hoy. Otro Sombrero Negro la oradora principal, Maria Markstedter, fundadora del especialista en código Arm Azeria Labs, prevenido el futuro, en términos de seguridad de las tecnologías de aprendizaje automático, parecía incierto debido a dos factores: el deseo de la industria de moverse rápido y romper cosas, y la falta de detalles técnicos internos para que trabajaran los profesionales de seguridad.

Es decir, algunas organizaciones están apresurando modelos en escenarios del mundo real de una manera que podría poner en riesgo a las personas, y la forma en que se entrenan e implementan los modelos se mantiene en secreto o simplemente es difícil de seguir. Todo lo cual no es una gran situación para los investigadores de infosec, los usuarios finales y los administradores.

“La carrera armamentista de la IA corporativa ha comenzado”, opinó Markstedter. “A la vanguardia de esto está, por supuesto, Microsoft”.

Señaló que en febrero, el director ejecutivo de Microsoft, Satya Nadella, se jactó de que su corporación se movería rápido en esta área, y agregó que el ejecutivo de Redmond, Sam Schillace, estaba incluso citado diciendo que sería un “error absolutamente fatal en este momento preocuparse por cosas que se pueden arreglar más tarde”. Cualquiera que haya aplicado parches de Windows lo sabrá muy bien.

Esperemos que ML no comience como lo hicieron los teléfonos inteligentes. Markstedter dijo que los primeros modelos ejecutaban todo con acceso raíz, estaban plagados de errores críticos, tenían muy poca solución y no había espacio aislado de datos.

El cambio se produjo porque la gente de seguridad podía desarmar los teléfonos, físicamente y en términos de código, ver cómo funcionaban, encontrar fallas y mostrar a los fabricantes dónde necesitaban mejorar su juego. No será posible lo mismo con los productos de IA de caja negra, sugirió.

Para empeorar las cosas, con los datos de entrenamiento extraídos de la web al por mayor, las grandes pilas de IA de hoy son "como un tonto que cree todo lo que lee en Internet", dijo. Además, hay investigaciones que muestran que el envenenamiento de conjuntos de datos de entrenamiento podría tener un gran impacto en la precisión y las operaciones de los sistemas de ML.

“No sabemos cómo podría ser esa situación en este momento”, advirtió. “El mayor problema no es la existencia de estos desafíos; nuestro problema es que no tenemos suficientes personas con las habilidades para abordarlos”. ®

punto_img

Información más reciente

punto_img