Logotipo de Zephyrnet

Cómo podría ser el uso de la seguridad para regular los chips de IA

Fecha:

Investigadores de OpenAI, la Universidad de Cambridge, la Universidad de Harvard y la Universidad de Toronto ofrecieron pruebas “exploratorias” ideas sobre cómo regular los chips y el hardware de IAy cómo las políticas de seguridad podrían prevenir el abuso de la IA avanzada.

Las recomendaciones brindan formas de medir y auditar el desarrollo y uso de sistemas avanzados de inteligencia artificial y los chips que los impulsan. Las recomendaciones para el cumplimiento de políticas incluyen limitar el rendimiento de los sistemas e implementar funciones de seguridad que puedan desactivar de forma remota los chips no autorizados.

"En la actualidad, entrenar sistemas de IA altamente capaces requiere acumular y orquestar miles de chips de IA", escribieron los investigadores. "[S]i estos sistemas son potencialmente peligrosos, entonces limitar esta potencia informática acumulada podría servir para limitar la producción de sistemas de IA potencialmente peligrosos".

Los gobiernos se han centrado en gran medida en el software para las políticas de IA, y el documento es un artículo complementario que cubre el lado del hardware del debate, dice Nathan Brookwood, analista principal de Insight 64.

Sin embargo, la industria no acogerá con agrado ninguna característica de seguridad que afecte el rendimiento de la IA, advierte. Hacer que la IA sea segura a través del hardware “es una aspiración noble, pero no veo que ninguno de ellos lo logre. El genio ha salido de la lámpara y buena suerte para que vuelva a entrar”, dice.

Limitación de conexiones entre clústeres

Una de las propuestas que sugieren los investigadores es un límite para limitar la capacidad de procesamiento informático disponible para los modelos de IA. La idea es implementar medidas de seguridad que puedan identificar el abuso de los sistemas de inteligencia artificial y cortar y limitar el uso de chips.

Específicamente, sugieren un enfoque específico para limitar el ancho de banda entre la memoria y los grupos de chips. La alternativa más fácil (cortar el acceso a los chips) no era ideal ya que afectaría el rendimiento general de la IA, escribieron los investigadores.

El documento no sugirió formas de implementar tales barreras de seguridad ni cómo podría detectarse el abuso de los sistemas de inteligencia artificial.

"Determinar el límite de ancho de banda óptimo para la comunicación externa es un área que merece más investigación", escribieron los investigadores.

Los sistemas de IA a gran escala exigen un enorme ancho de banda de red, y sistemas de IA como Eagle de Microsoft y Eos de Nvidia se encuentran entre los Las 10 supercomputadoras más rápidas del mundo.. Existen formas de limitar el rendimiento de la red para dispositivos que admiten el lenguaje de programación P4, que puede analizar el tráfico de la red y reconfigurar enrutadores y conmutadores.

Pero buena suerte pidiendo a los fabricantes de chips que implementen mecanismos de seguridad de IA que puedan ralentizar los chips y las redes, dice Brookwood.

“Arm, Intel y AMD están ocupados construyendo los chips más rápidos y potentes que pueden crear para ser competitivos. No sé cómo puedes reducir el ritmo”, dice.

Las posibilidades remotas conllevan cierto riesgo

Los investigadores también sugirieron desactivar los chips de forma remota, algo que Intel ha integrado en sus chips de servidor más nuevos. La función On Demand es un servicio de suscripción que permitirá a los clientes de Intel activar y desactivar funciones en el chip, como extensiones de IA, como asientos con calefacción en un Tesla.

Los investigadores también sugirieron un esquema de certificación en el que los chips permitan que solo las partes autorizadas accedan a los sistemas de inteligencia artificial a través de certificados digitales firmados criptográficamente. El firmware podría proporcionar pautas sobre usuarios y aplicaciones autorizados, que podrían cambiarse con actualizaciones.

Si bien los investigadores no proporcionaron recomendaciones técnicas sobre cómo se haría esto, la idea es similar a cómo la informática confidencial protege las aplicaciones en chips mediante certificar a los usuarios autorizados. Intel y AMD tienen computación confidencial en sus chips, pero aún es temprano para la tecnología emergente.

También existen riesgos al hacer cumplir las políticas de forma remota. "Los mecanismos de aplicación remota tienen desventajas importantes y sólo pueden justificarse si el daño esperado de la IA es extremadamente alto", escribieron los investigadores.

Brookwood está de acuerdo.

“Incluso si pudieras, habrá tipos malos que lo perseguirán. Poner restricciones artificiales a los buenos será ineficaz”, afirma.

punto_img

Información más reciente

punto_img