Logotipo de Zephyrnet

La instalación de arte del MIT tiene como objetivo empoderar a un público más exigente

Fecha:

Los videos manipulados por inteligencia artificial, culturalmente conocidos como "deepfakes", están siendo creados y compartidos por el público a un ritmo alarmante. Utilizando gráficos de computadora avanzados y procesamiento de audio para emular de manera realista el habla y los gestos, las falsificaciones profundas tienen el poder de distorsionar la realidad, erosionar la verdad y difundir información errónea. En un ejemplo preocupante, los investigadores de todo el mundo han dado la alarma de que tienen un potencial significativo para influir en los votantes estadounidenses en las elecciones de 2020. 

Mientras que las compañías de tecnología compiten por desarrollar formas de detectar y controlar las falsificaciones profundas en las plataformas de redes sociales, y los legisladores buscan formas de regularlas, un equipo de artistas y científicos informáticos dirigido por el Centro de Virtualidad Avanzada del MIT ha diseñado una instalación de arte para potenciar y educar El público sobre cómo discernir la realidad de los deepfakes por su cuenta.

"La información errónea basada en computadora es un desafío global", dice Fox Harrell, profesor de medios digitales y de inteligencia artificial en el MIT y director del Centro para la Virtualidad Avanzada del MIT. “Estamos motivados para tener un amplio impacto en la alfabetización del público, y estamos comprometidos a usar la IA no para desinformación, sino para la verdad. Nos complace traer personas a bordo, como nuestra nueva directora creativa de XR, Francesca Panetta, para ayudar a impulsar esta misión ”.

Panetta es la directora de "En caso de desastre lunar", junto con la codirectora Halsey Burgund, miembro del Laboratorio de Documental Abierto del MIT. Ella dice: “Esperamos que nuestro trabajo genere conciencia crítica entre el público. Queremos que estén alertas a lo que es posible con la tecnología actual, que exploren su propia susceptibilidad y que estén listos para cuestionar lo que ven y escuchan a medida que entramos en un futuro lleno de desafíos sobre la cuestión de la verdad ".

Con "En caso de desastre lunar", que se inauguró el viernes en el Festival Internacional de Documentales de Amsterdam, el equipo ha reinventado la historia del alunizaje. Instalado en una sala de estar de la década de 1960, se invita al público a sentarse en muebles antiguos rodeados de tres pantallas, incluido un televisor de época. Las pantallas reproducen una serie editada de imágenes antiguas de la NASA, llevando al público en un viaje desde el despegue al espacio y a la luna. Luego, en el centro de la televisión, Richard Nixon lee un discurso de contingencia escrito para él por su escritor de discursos, Bill Safire, "en caso de desastre lunar" que debía leer si los astronautas del Apolo 11 no hubieran podido regresar a la Tierra. En esta instalación, Richard Nixon lee este discurso de la Oficina Oval.

Estas muestras de video se produjeron como discursos profundos de Richard Nixon para el proyecto "En caso de desastre lunar". Los clips no reflejan eventos reales, sino que se compusieron combinando video de archivo de un discurso real de Nixon, nuevas grabaciones de un actor de voz de Nixon y técnicas de inteligencia artificial. La versión de instalación de "In Event of Moon Disaster" se estrenó el 22 de noviembre en el Festival Internacional de Cine de Amsterdam (IDFA) como parte del programa IDFA DocLab.

Video: En caso de un desastre en la luna, codirigido por Francesca Panetta y Halsey Burgund

Para recrear esta conmovedora elegía que nunca sucedió, el equipo utilizó técnicas de aprendizaje profundo y las contribuciones de un actor de voz para construir la voz de Richard Nixon, produciendo un discurso sintético trabajando con la compañía respeecher con sede en Ucrania. También trabajaron con la compañía israelí Canny AI para usar técnicas de reemplazo de diálogo de video para estudiar y replicar el movimiento de la boca y los labios de Nixon, haciendo que parezca que está leyendo este mismo discurso de la Oficina Oval. El video resultante es altamente creíble, destacando las posibilidades de la tecnología deepfake en la actualidad.

Los investigadores decidieron crear una imitación profunda de este momento histórico por una serie de razones: el espacio es un tema muy querido, por lo que es potencialmente atractivo para un público amplio; la pieza es apolítica y menos propensa a enajenarse, a diferencia de mucha información errónea; y, como el alunizaje de 1969 es un evento ampliamente aceptado por el público en general, los elementos falsos profundos serán muy obvios. 

Para completar la experiencia educativa, "En caso de desastre lunar" proporciona información transparente sobre lo que es posible con la tecnología actual y el objetivo de aumentar la conciencia pública y la capacidad de identificar información errónea en forma de falsificaciones profundas. Esto será en forma de periódicos escritos especialmente para la exhibición que detallan la realización de la instalación, cómo detectar una falsificación profunda y el trabajo más reciente que se realiza en detección algorítmica. Se alentará a los participantes de la audiencia a que se lleven esto.

“Nuestro objetivo era utilizar las técnicas de inteligencia artificial más avanzadas disponibles en la actualidad para crear el resultado más creíble posible, y luego señalarlo y decir: 'Esto es falso; así es como lo hicimos; y he aquí por qué lo hicimos '”, dice Burgund.

Si bien la instalación física se abrirá en noviembre de 2019 en Amsterdam, el equipo está construyendo una versión basada en la web que se espera que entre en funcionamiento en la primavera de 2020.


Temas: Oficina de Aprendizaje Abierto, Realidad aumentada y virtual, Aprendizaje automático, Inteligencia Artificial, Historia, Exploración espacial, Cine y televisión, Artes, Laboratorio de Informática e Inteligencia Artificial (CSAIL), Estudios comparativos de medios / Escritura, NASA, Informática y tecnología, Tecnología y sociedad, Historia de la ciencia, Escuela de Ingeniería, Escuela de Humanidades, Artes y Ciencias Sociales

Fuente: http://news.mit.edu/2019/mit-apollo-deepfake-art-installation-aims-to-empower-more-discerning-public-1125

punto_img

Información más reciente

punto_img