Logotipo de Zephyrnet

Microsoft presenta tecnología deepfake que es demasiado buena para lanzarla

Fecha:

Microsoft presentó esta semana una demostración de VASA–1, un marco para crear videos de personas hablando a partir de una imagen fija, una muestra de audio y un guión de texto, y afirma (con razón) que es demasiado peligroso para ser divulgado al público.

Estos videos generados por IA, en los que se puede animar de manera convincente a las personas para que pronuncien palabras escritas con una voz clonada, son exactamente el tipo de cosas que la Comisión Federal de Comercio de EE. UU. advertido sobre el mes pasado, después de anteriormente proponiendo una regla para evitar que la tecnología de inteligencia artificial se utilice para fraudes de suplantación de identidad.

El equipo de Microsoft lo reconoce en su anuncio, lo que explica que la tecnología no se publica por consideraciones éticas. Insisten en que presentan investigaciones para generar personajes virtuales interactivos y no para suplantar a nadie. Como tal, no hay ningún producto o API planificado.

"Nuestra investigación se centra en generar habilidades visuales afectivas para avatares virtuales de IA, con el objetivo de aplicaciones positivas", afirman los expertos de Redmond. “No se pretende crear contenido que se utilice para inducir a error o engañar.

“Sin embargo, al igual que otras técnicas de generación de contenido relacionadas, aún podría usarse indebidamente para hacerse pasar por humanos. Nos oponemos a cualquier comportamiento que cree contenidos engañosos o dañinos de personas reales y estamos interesados ​​en aplicar nuestra técnica para avanzar en la detección de falsificaciones”.

Kevin Surace, presidente de Token, un negocio de autenticación biométrica, y orador frecuente sobre IA generativa, dijo El registro en un correo electrónico que si bien ha habido demostraciones tecnológicas previas de rostros animados a partir de una imagen fija y un archivo de voz clonado, la demostración de Microsoft refleja el estado del arte.

"Las implicaciones para personalizar los correos electrónicos y otros medios de comunicación empresarial masivos son fabulosas", opinó. “Incluso animando imágenes más antiguas. Hasta cierto punto, esto es simplemente divertido y, en otro, tiene aplicaciones comerciales sólidas que todos usaremos en los próximos meses y años”.

La "diversión" de los deepfakes era 96 ​​por ciento de pornografía no consensuada, cuando evaluado [PDF] en 2019 por la empresa de ciberseguridad Deeptrace.

No obstante, los investigadores de Microsoft sugieren que ser capaz de crear personas con apariencia realista y poner palabras en sus bocas tiene usos positivos.

"Esta tecnología promete enriquecer la comunicación digital, aumentar la accesibilidad para aquellos con discapacidades comunicativas, transformar la educación, los métodos con tutoría interactiva de IA y brindar apoyo terapéutico e interacción social en la atención médica", proponen en un trabajo de investigación que no contenga las palabras “pornografía” o “desinformación”.

Si bien es discutible que un video generado por IA no sea lo mismo que un deepfake, este último se define Mediante manipulación digital en lugar de un método generativo, la distinción se vuelve irrelevante cuando se puede conjurar una falsificación convincente sin necesidad de cortar y pegar.

Cuando se le preguntó qué opina del hecho de que Microsoft no esté lanzando esta tecnología al público por temor a un mal uso, Surace expresó dudas sobre la viabilidad de las restricciones.

"Microsoft y otros se han contenido por ahora hasta que resuelvan los problemas de privacidad y uso", dijo. “¿Cómo regulará alguien quién usa esto por las razones correctas?”

Surace añadió que ya existen modelos de código abierto que son igualmente sofisticados, señalando EMO. "Se puede extraer el código fuente de GitHub y crear un servicio a su alrededor que posiblemente rivalice con la producción de Microsoft", observó. "Debido a la naturaleza de código abierto del espacio, regularlo será imposible en cualquier caso".

Dicho esto, países de todo el mundo están intentando regular a las personas fabricadas con IA. Ubicación: Canadá, China, y la UK, entre otras naciones, tienen regulaciones que se pueden aplicar a los deepfakes, algunos de los cuales cumplen objetivos políticos más amplios. Gran Bretaña solo esta semana lo hizo ilegal para crear una imagen deepfake sexualmente explícita sin consentimiento. Compartir este tipo de imágenes ya estaba prohibido según la Ley de Seguridad en Línea del Reino Unido de 2023.

En enero, un grupo bipartidista de legisladores estadounidenses Introducido la Ley de interrupción de imágenes falsificadas explícitas y ediciones no consensuales de 2024 (Ley DEFIANCE), un proyecto de ley que crea una forma para que las víctimas de imágenes deepfake no consensuales presenten una demanda civil ante los tribunales.

Y el martes 16 de abril, el Comité Judicial del Senado de los EE. UU., Subcomité de Privacidad, Tecnología y Derecho celebró una audiencia titulado "Supervisión de la IA: Deepfakes electorales".

En comentarios preparados, Rijul Gupta, director ejecutivo de DeepMedia, una empresa de detección de deepfake, dijo:

[E]l aspecto más alarmante de los deepfakes es su capacidad para proporcionar a los malos actores una negación plausible, permitiéndoles descartar el contenido genuino como falso. Esta erosión de la confianza pública golpea el núcleo mismo de nuestro tejido social y los cimientos de nuestra democracia. El cerebro humano, programado para creer lo que ve y oye, es particularmente vulnerable al engaño de los deepfakes. A medida que estas tecnologías se vuelven cada vez más sofisticadas, amenazan con socavar el sentido compartido de la realidad que sustenta nuestra sociedad, creando un clima de incertidumbre y escepticismo donde los ciudadanos se quedan cuestionando la veracidad de cada información que encuentran.

Pero piense en las aplicaciones de marketing. ®

punto_img

Información más reciente

punto_img