Logotipo de Zephyrnet

El jefe de IA del Pentágono busca "confianza justificada" para llevar la tecnología a la batalla

Fecha:

El director de inteligencia digital y artificial del Pentágono, Craig Martell, dijo que está alarmado por el potencial de los sistemas generativos de inteligencia artificial como ChatGPT para engañar y sembrar desinformación. Su charla sobre tecnología en la convención de hackers DefCon en agosto fue un gran éxito. Pero no está nada amargado con la IA confiable.

Martell, que no es un soldado sino un científico de datos, dirigió el aprendizaje automático en empresas como LinkedIn, Dropbox y Lyft antes de aceptar el puesto el año pasado.

Reunir los datos del ejército estadounidense y determinar qué IA es lo suficientemente confiable para llevarla a la batalla es un gran desafío en un mundo cada vez más inestable donde varios países compiten para desarrollar armas autónomas letales.

La entrevista ha sido editada para mayor claridad y extensión.

-

P: ¿Cuál es tu misión principal?

R: Nuestro trabajo es ampliar la ventaja de decisión desde la sala de juntas hasta el campo de batalla. No veo que nuestro trabajo sea abordar algunas misiones particulares, sino más bien desarrollar las herramientas, los procesos, la infraestructura y las políticas que permitan que el departamento en su conjunto crezca.

P: ¿Entonces el objetivo es el dominio global de la información? Que necesitas para tener éxito?

R: Finalmente estamos llegando a la guerra centrada en la red: cómo llevar los datos correctos al lugar correcto en el momento correcto. Existe una jerarquía de necesidades: datos de calidad en la parte inferior, análisis y métricas en el medio, IA en la parte superior. Para que esto funcione, lo más importante son datos de alta calidad.

P: ¿Cómo deberíamos pensar en el uso de la IA en aplicaciones militares?

R: En realidad, toda la IA es contar el pasado para predecir el futuro. En realidad, no creo que la ola moderna de IA sea diferente.

China, Ucrania

P: ¿Está China ganando la carrera armamentista de la IA?

R: Encuentro esa metáfora algo defectuosa. Cuando tuvimos una carrera armamentista nuclear fue con una tecnología monolítica. La IA no es eso. Tampoco es una caja de Pandora. Es un conjunto de tecnologías que aplicamos caso por caso, verificando empíricamente si son efectivas o no.

PREGUNTA: El ejército estadounidense está utilizando tecnología de inteligencia artificial para ayudar a Ucrania. ¿Cómo estás ayudando?

R: Nuestro equipo no participa en Ucrania más que para ayudar a crear una base de datos sobre cómo los aliados brindan asistencia. Se llama Skyblue. Solo estamos ayudando a garantizar que se mantenga organizado.

P: Se debate mucho sobre el armamento letal autónomo, como los drones de ataque. El consenso es que, en última instancia, los humanos se verán reducidos a una función de supervisión: podrán abortar misiones pero, en general, no interferir. ¿Suena bien?

R: En el ejército entrenamos con una tecnología hasta que desarrollamos una confianza justificada. Entendemos los límites de un sistema, sabemos cuándo funciona y cuándo no. ¿Cómo se relaciona esto con los sistemas autónomos? Toma mi auto. Confío en el control de crucero adaptativo. La tecnología que se supone que le impedirá cambiar de carril, por otro lado, es terrible. Así que no tengo una confianza justificada en ese sistema y no lo uso. Extrapola eso a los militares.

'Compañero leal'

P: El programa de “compañeros leales” de la Fuerza Aérea en desarrollo haría que drones volaran en conjunto con aviones de combate pilotados por humanos. ¿Es la visión por computadora lo suficientemente buena como para distinguir a amigos de enemigos?

R: La visión por computadora ha logrado avances sorprendentes en los últimos 10 años. Si es útil en una situación particular es una cuestión empírica. Necesitamos determinar la precisión que estamos dispuestos a aceptar para el caso de uso y construir según ese criterio y realizar pruebas. Entonces no podemos generalizar. Realmente me gustaría que dejáramos de hablar de la tecnología como un monolito y, en cambio, habláramos de las capacidades que queremos.

P: Actualmente estás estudiando IA generativa y modelos de lenguaje grande. ¿Cuándo podría utilizarse en el Departamento de Defensa?

R: Los modelos comerciales en lenguaje grande definitivamente no están obligados a decir la verdad, por lo que soy escéptico. Dicho esto, a través de Task Force Lima (lanzado en agosto) estamos estudiando más de 160 casos de uso. Queremos decidir qué es de bajo riesgo y seguro. No estoy estableciendo una política oficial aquí, pero planteemos una hipótesis.

Un riesgo bajo podría ser algo así como generar primeros borradores por escrito o en código de computadora. En tales casos, los humanos editarán o, en el caso del software, compilarán. También podría funcionar para la recuperación de información, donde los hechos se pueden validar para garantizar que sean correctos.

P: Un gran desafío con la IA es contratar y retener el talento necesario para probar y evaluar sistemas y etiquetar datos. Los científicos de datos de IA ganan mucho más de lo que tradicionalmente ha pagado el Pentágono. ¿Qué tan grande es este problema?

R: Eso es un enorme cajón de sastre. Acabamos de crear una oficina de gestión de talento digital y estamos pensando detenidamente en cómo cubrir un conjunto completamente nuevo de puestos laborales. Por ejemplo, ¿realmente necesitamos contratar personas que quieran permanecer en el Departamento de Defensa durante 20 o 30 años? Probablemente no.

Pero ¿y si podemos conseguirlos por tres o cuatro? ¿Qué pasaría si pagáramos su universidad y ellos nos devolvieran el dinero en tres o cuatro años y luego se fueran con esa experiencia y fueran contratados por Silicon Valley? Estamos pensando creativamente así. ¿Podríamos, por ejemplo, ser parte de un canal de diversidad? ¿Reclutar en HBCU (colegios y universidades históricamente negros)?

punto_img

Información más reciente

punto_img