Logotipo de Zephyrnet

El Departamento de Defensa de EE. UU. recluta Scale AI para ayudar a los militares a ser más inteligentes

Fecha:

Según se informa, el Departamento de Defensa de EE. UU. está trabajando con la startup Scale AI para probar modelos de IA generativa para uso militar.

Scale AI construirá un marco de herramientas y conjuntos de datos que el Pentágono puede implementar para evaluar modelos de lenguaje grandes. El marco implicará “medir el rendimiento del modelo, ofrecer retroalimentación en tiempo real a los combatientes y crear conjuntos de evaluación especializados del sector público para probar modelos de IA para aplicaciones de apoyo militar, como organizar los hallazgos de los informes posteriores a la acción”, dijo la empresa con sede en San Francisco. les dijo a DefensaScoop.

La capacidad de los grandes modelos lingüísticos para analizar y generar texto podría aumentar la capacidad del Pentágono para recopilar inteligencia, planificar operaciones y, por tanto, guiar la toma de decisiones en el campo de combate.

"Imagínese un mundo donde los comandantes combatientes puedan ver todo lo que necesitan para tomar decisiones estratégicas", dijo Craig Martell, director de inteligencia digital y artificial del Departamento de Defensa.

"Imagínese un mundo donde los comandantes combatientes no obtengan esa información a través de PowerPoint o correos electrónicos de toda la [organización]; el tiempo de respuesta para el conocimiento de la situación se reduce de uno o dos días a diez minutos", dijo. declaró durante el Simposio Advantage DoD 2024: Datos de defensa e inteligencia artificial.

La IA puede procesar rápidamente grandes cantidades de información. Sin embargo, los datos militares suelen ser muy confidenciales, y a los funcionarios les preocupa que, si llegan a modelos de lenguaje grandes, los ataques de inyección rápida o el abuso de API puedan provocar que se filtren.

La mayor barrera para la implementación militar de los LLM es su tendencia a generar información inexacta o falsa, denominada alucinación. Al incorporar Scale AI, el Pentágono cree que puede probar el rendimiento de diferentes modelos para identificar riesgos potenciales antes de considerar usarlos para apoyar la guerra o la inteligencia.

Según se informa, la startup compilará "conjuntos de datos de reserva" que contienen ejemplos de respuestas efectivas a solicitudes de entrada que serían útiles para los militares. Luego, los funcionarios del Departamento de Defensa pueden comparar las respuestas de diferentes modelos a las mismas indicaciones y evaluar su utilidad.

El año pasado, el Departamento de Defensa lanzó Grupo de Trabajo Lima – una unidad dirigida por Martell, exjefe de aprendizaje automático en Lyft, empresa de viajes compartidos, para investigar aplicaciones militares para la IA generativa.

"El Departamento de Defensa tiene el imperativo de buscar de manera responsable la adopción de modelos generativos de IA al mismo tiempo que identifica medidas de protección adecuadas y mitiga los riesgos de seguridad nacional que pueden resultar de problemas como datos de entrenamiento mal administrados", explicó Martell en ese momento. "También debemos considerar hasta qué punto nuestros adversarios emplearán esta tecnología y buscarán alterar nuestro propio uso de soluciones basadas en IA".

Herramientas como ChatGPT han sido prohibido temporalmente internamente, sin embargo. La Fuerza Espacial de EE. UU. dijo al personal que no utilizara el software por temor a que se pudieran revelar o extraer secretos militares.

Scale AI se negó a comentar sobre el asunto. ®

punto_img

Información más reciente

punto_img