Logotipo de Zephyrnet

Las capacidades de ciberseguridad del ejército estadounidense para impulsar OpenAI

Fecha:

OpenAI está desarrollando capacidades de ciberseguridad impulsadas por IA para el ejército estadounidense y acelerando su trabajo de seguridad electoral, dijeron los ejecutivos del laboratorio en el Foro Económico Mundial (FEM) en Davos esta semana.

El cambio de opinión público sobre el trabajo con las fuerzas armadas se produce días después de una cambiar en El lenguaje político de OpenAI, que anteriormente prohibía el uso de sus modelos de IA generativa para aplicaciones “militares y de guerra”, así como “la generación de malware” con su tecnología. Esas restricciones ahora han desaparecido de la letra pequeña del fabricante de ChatGPT. Dicho esto, el súper laboratorio enfatizó que todavía no se supone que su tecnología se utilice para violencia, destrucción o espionaje de comunicaciones.

"Nuestra política no permite que nuestras herramientas se utilicen para dañar a las personas, desarrollar armas, vigilar las comunicaciones, herir a otros o destruir propiedades", dijo un portavoz de OpenAI. El registro .

“Sin embargo, existen casos de uso de seguridad nacional que se alinean con nuestra misión.

“Ya estamos trabajando con DARPA para impulsar la creación de nuevas herramientas de ciberseguridad para proteger el software de código abierto del que dependen la infraestructura y la industria críticas. No estaba claro si estos casos de uso beneficiosos se habrían permitido bajo el término "militar" en nuestras políticas anteriores. Entonces, el objetivo de nuestra actualización de políticas es brindar claridad y la capacidad de tener estas discusiones”. 

El martes, durante una entrevista En la fiesta del WEF para los líderes del mundo, la vicepresidenta de Asuntos Globales de OpenAI, Anna Makanju, dijo que su asociación con el Pentágono incluye el desarrollo de software de ciberseguridad de código abierto. OpenAI también está iniciando conversaciones con el gobierno de EE. UU. sobre cómo su tecnología puede ayudar a prevenir los suicidios de veteranos, dijo.

"Debido a que anteriormente teníamos lo que era esencialmente una prohibición general sobre el uso militar, mucha gente pensó que eso prohibiría muchos de estos casos de uso, que la gente cree que están muy alineados con lo que queremos ver en el mundo", dijo Makanju. 

Sin embargo, a pesar de eliminar "militar y guerra" junto con otros "usos no permitidos" para ChatGPT, Makanju dijo que OpenAI mantiene su prohibición de usar sus modelos para desarrollar armas para dañar a las personas. 

También durante la misma entrevista, el director ejecutivo de OpenAI, Sam Altman, dijo que el negocio está tomando medidas para garantizar que sus herramientas de inteligencia artificial generativa no se utilicen para difundir desinformación relacionada con las elecciones. 

También sigue un similar empujado por Microsoft, el mayor inversor de OpenAI, que en noviembre anunció una estrategia de protección electoral de cinco pasos para “Estados Unidos y otros países donde se llevarán a cabo elecciones críticas en 2024”. 

"Hay mucho en juego en esta elección", dijo Altman el martes.

Esto se produce un día después de que el expresidente estadounidense Donald Trump gran victoria en el caucus de Iowa el lunes.

Y todos estos temas (IA, ciberseguridad y desinformación) desempeñan papeles destacados en la agenda a medida que avanzamos. los líderes mundiales se reúnen esta semana en Davos.

Según el WEF Informe de Riesgos Globales 2024, publicado la semana pasada, la “información errónea y la desinformación” es el principal riesgo global a corto plazo, y la “inseguridad cibernética” ocupa el cuarto lugar.

El auge de la IA generativa exacerba estos desafíos: el 56 por ciento de los ejecutivos encuestados en el WEF Reunión Anual de Ciberseguridad en noviembre de 2023 diciendo La IA generativa dará a los atacantes una ventaja. sobre los defensores en los próximos dos años.

"Una preocupación particular rodea el uso de tecnologías de inteligencia artificial para impulsar las capacidades de guerra cibernética, y con razón", dijo Bernard Montel, director técnico de Tenable para EMEA. El registro

"Si bien la IA ha logrado avances tecnológicos astronómicos en los últimos 12 a 24 meses, hoy en día es incomprensible permitir que un dispositivo autónomo emita un juicio final", añadió.

"Si bien la IA es capaz de identificar y automatizar rápidamente algunas acciones que deben tomarse, es imperativo que sean los humanos quienes tomen decisiones críticas sobre dónde y cuándo actuar a partir de la inteligencia que proporciona la IA". ®

punto_img

Información más reciente

punto_img