Logotipo de Zephyrnet

Deepfakes en el año electoral mundial de 2024: ¿un arma de engaño masivo?

Fecha:

Seguridad digital

A medida que se generalizan las imágenes, los vídeos y los clips de audio fabricados de personas reales, la perspectiva de una manguera de desinformación impulsada por la IA es motivo de creciente preocupación.

Deepfakes en el año electoral mundial de 2024: ¿un arma de engaño masivo?

Las noticias falsas han dominado los titulares electorales desde que se convirtió en una gran historia durante la carrera por la Casa Blanca en 2016. Pero ocho años después, existe una amenaza posiblemente mayor: una combinación de desinformación y deepfakes eso podría engañar incluso a los expertos. Hay muchas posibilidades de que los recientes ejemplos de contenido generado por IA con temas electorales, incluida una gran cantidad de imágenes y videos que circulan En el período previo a las elecciones presenciales de Argentina y Audio manipulado del presidente estadounidense Joe Biden. – fueron presagios de lo que probablemente vendrá a mayor escala.

Con alrededor de un cuarta parte de la población mundial De cara a las urnas en 2024, aumenta la preocupación de que actores nefastos puedan utilizar la desinformación y los engaños basados ​​en la inteligencia artificial para influir en los resultados, y muchos expertos temen las consecuencias de que los deepfakes se generalicen.

La amenaza de la desinformación deepfake

Como se mencionó, no menos de dos mil millones de personas están a punto de acudir a sus colegios electorales locales este año para votar por sus representantes y líderes estatales favoritos. Dado que se celebrarán elecciones importantes en más de un país, incluidos Estados Unidos, el Reino Unido y la India (así como para el Parlamento Europeo), esto tiene el potencial de cambiar el panorama político y la dirección de la geopolítica durante los próximos años, y más allá de.

Al mismo tiempo, sin embargo, recientemente se ha difundido información errónea y desinformativa. clasificado por el Foro Económico Mundial (FEM) como el riesgo global número uno de los próximos dos años.

El desafío con los deepfakes es que la tecnología impulsada por la inteligencia artificial ahora se está volviendo barata, accesible y lo suficientemente poderosa como para causar daño a gran escala. democratiza la capacidad de los ciberdelincuentes, los actores estatales y los hacktivistas para lanzar campañas de desinformación convincentes y más. estafas ad hoc y únicas. Es parte de la razón por la que el WEF recientemente clasificó la desinformación como el mayor riesgo global de los próximos dos años, y el segundo riesgo actual, después del clima extremo. Esto es según 1,490 expertos del mundo académico, empresarial, gubernamental, de la comunidad internacional y de la sociedad civil que el FEM consultó.

El informe advierte:"El contenido sintético manipulará a los individuos, dañará las economías y fracturará las sociedades de numerosas maneras durante los próximos dos años... existe el riesgo de que algunos gobiernos actúen con demasiada lentitud, enfrentándose a un equilibrio entre prevenir la desinformación y proteger la libertad de expresión".

deepfakes-desinformación-política

(Profundo) fingir

El desafío es que herramientas como ChatGPT y la IA generativa (GenAI) de libre acceso han hecho posible que una gama más amplia de personas participen en la creación de campañas de desinformación impulsadas por tecnología deepfake. Con todo el arduo trabajo realizado por ellos, los actores maliciosos tienen más tiempo para trabajar en sus mensajes y esfuerzos de amplificación para garantizar que su contenido falso sea visto y escuchado.

En un contexto electoral, los deepfakes obviamente podrían usarse para erosionar la confianza de los votantes en un candidato en particular. Después de todo, es más fácil convencer a alguien de que no haga algo que al revés. Si los partidarios de un partido político o candidato pueden dejarse convencer adecuadamente mediante audio o vídeo falso, eso sería una victoria definitiva para los grupos rivales. En algunas situaciones, los Estados rebeldes pueden intentar socavar la fe en todo el proceso democrático, de modo que quien gane tendrá dificultades para gobernar con legitimidad.

En el centro del desafío se encuentra una verdad simple: cuando los humanos procesan información, tienden a valorar la cantidad y la facilidad de comprensión. Eso significa que cuanto más contenido veamos con un mensaje similar y más fácil de entender, mayores serán las posibilidades de que lo creamos. Es por eso que las campañas de marketing tienden a estar compuestas de mensajes breves y repetidos continuamente. Si a esto le sumamos el hecho de que cada vez es más difícil diferenciar los deepfakes del contenido real, tenemos una receta potencial para un desastre democrático.

De la teoría a la práctica

Lo preocupante es que es probable que los deepfakes tengan un impacto en el sentimiento de los votantes. Tomemos este nuevo ejemplo: en enero de 2024, un audio deepfake del presidente estadounidense Joe Biden fue circulado mediante una llamada automática a un número desconocido de votantes primarios en New Hampshire. En el mensaje aparentemente les dijo que no asistieran y que, en cambio, "guardaran su voto para las elecciones de noviembre". El número de identificación de llamadas mostrado también fue falsificado para que pareciera que el mensaje automático fue enviado desde el número personal de Kathy Sullivan, ex presidenta estatal del Partido Demócrata que ahora dirige un súper PAC pro-Biden.

No es difícil ver cómo estos llamados podrían usarse para disuadir a los votantes de votar por su candidato preferido antes de las elecciones presidenciales de noviembre. El riesgo será particularmente grave en elecciones muy disputadas, donde el cambio de un pequeño número de votantes de un lado a otro determina el resultado. Con sólo decenas de miles de votantes en un puñado de estados indecisos que probablemente decidirán el resultado de las elecciones, una campaña dirigida como esta podría causar un daño incalculable. Y para colmo de males, como en el caso anterior se propagó a través de llamadas automáticas en lugar de redes sociales, es aún más difícil rastrear o medir el impacto.

¿Qué están haciendo las empresas de tecnología al respecto?

Tanto YouTube como Facebook son se dice que fue lento en respuesta a algunos deepfakes que estaban destinados a influir en una elección reciente. Esto a pesar de una nueva ley de la UE (la Ley de Servicios Digitales) que exige que las empresas de redes sociales tomen medidas drásticas contra los intentos de manipulación electoral.

Por su parte, OpenAI ha dicho que implementará las credenciales digitales de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA) para las imágenes generadas por DALL-E3. La tecnología de marca de agua criptográfica, que también están probando Meta y Google, está diseñada para dificultar la producción de imágenes falsas.

Sin embargo, estos son todavía sólo pequeños pasos y hay preocupaciones justificables que la respuesta tecnológica a la amenaza será demasiado escasa y demasiado tarde a medida que la fiebre electoral se apodere del mundo. Especialmente cuando se difunde en redes relativamente cerradas como grupos de WhatsApp o llamadas automáticas, será difícil rastrear y desacreditar rápidamente cualquier audio o vídeo falso.

La teoría del “sesgo de anclaje” sugieren que la primera información que escuchamos los humanos es la que se nos queda grabada en la mente, incluso si resulta ser falsa. Si los deepfakers llegan primero a los votantes indecisos, todas las apuestas sobre quién será el vencedor final. En la era de las redes sociales y la desinformación impulsada por la inteligencia artificial, el dicho de Jonathan Swift “la falsedad vuela, y la verdad viene cojeando tras ella” adquiere un significado completamente nuevo.

punto_img

Información más reciente

punto_img