Logotipo de Zephyrnet

Hillary Clinton: 2024 es la "zona cero" para la IA y las elecciones

Fecha:

Cuando se trata de que la IA pueda influir en las elecciones, 2024 será la “zona cero”, según Hillary Clinton. 

Este será un gran año electoral, con más de cuatro mil millones de personas en este planeta elegibles para votar en una u otra encuesta. Se espera que, al menos, la aparición de IA generativa en toda esta política sea inevitable en 2024; imagenes de deepfake, audio falsificado, y es probable que ese material imaginado por software se utilice en intentos de influir o disuadir a los votantes, socavar la confianza de la gente en los procesos electorales y sembrar división.

Eso no quiere decir que no se deba confiar en nada o que se convoquen elecciones. En cambio, todo el mundo debería ser consciente de la inteligencia artificial, de lo que puede hacer y de cómo se puede utilizar indebidamente.

"Este es el año de las elecciones más importantes en todo el mundo desde el auge de las tecnologías de inteligencia artificial como ChatGPT", dijo el jueves la exsecretaria de Estado, senadora y primera dama de EE. UU. en un evento de la Universidad de Columbia que cubrió el impacto del aprendizaje automático en el mundo 2024. elecciones.

Clinton, que perdió ante Donald Trump en la carrera por la Casa Blanca de 2016, ha experiencia personalizada con elección intentos de desinformación y cómo la tecnología puede utilizarse potencialmente con fines nefastos.

Como dijo la panelista Maria Ressa, periodista ganadora del Premio Nobel de la Paz y cofundadora del sitio de noticias filipino Rappler: “Hillary probablemente fue la zona cero de toda la experimentación”.

Aún así, el noticias falsas y las imágenes manipuladas publicadas en Facebook y otras plataformas de redes sociales antes de las elecciones de 2016 eran "primitivas" en comparación con "el salto en tecnología" provocado por la IA generativa, dijo Clinton.

"Los vídeos difamatorios sobre ti no son divertidos, te lo puedo asegurar", añadió. “Pero tenerlos de una manera que... no tienes idea de si es verdad o no. Se trata de un nivel de amenaza totalmente diferente”.

El exsecretario de Seguridad Nacional Michael Chertoff, que también fue panelista en la reunión de Columbia, dijo que Internet debería considerarse un “dominio de conflicto”.

En un mundo en el que no podemos confiar en nada y no podemos creer en la verdad, no podemos tener democracia.

"Lo que la inteligencia artificial permite a un guerrero de la información es tener información errónea muy específica y, al mismo tiempo, hacerlo a escala, lo que significa que se lo hace a cientos de miles, tal vez incluso millones de personas", explicó Chertoff.

En ciclos electorales anteriores, incluso los que ocurrieron hace apenas una década, si un partido político o una figura pública enviaba electrónicamente un mensaje “incendiario” sobre un candidato o funcionario electo, ese mensaje podría haber atraído a algunos votantes, pero también probablemente habría atraído a algunos electores. es contraproducente y repele a muchos otros, opinó. 

Hoy, sin embargo, el mensaje “puede adaptarse a cada espectador u oyente individual para que sólo le atraiga a él y nadie más lo vea”, dijo Chertoff. “Además, puedes enviarlo bajo la identidad de alguien conocido y de confianza del destinatario, aunque eso también sea falso. Así que tienes la capacidad de enviar un mensaje realmente seleccionado que no influya en los demás de manera negativa”.

Además, si bien la interferencia electoral en elecciones democráticas anteriores en todo el mundo ha implicado esfuerzos para socavar la confianza o inclinar los votos hacia o en contra de un candidato en particular (como el caso de Rusia), intromisión al azar en 2016 y su Hackeo y filtración de Macron un año después, en Francia, las amenazas electorales de este año son “aún más peligrosas”, dijo Chertoff. 

Con esto se refiere a algún tipo de versión supercargada de IA del Gran mentira Donald Trump inventó y presionó después de perder las elecciones presidenciales de 2020 ante Joe Biden, en las que el perdedor afirmó erróneamente que le habían robado injustamente la victoria, lo que llevó al asalto al Congreso el 6 de enero por parte de leales al MAGA.

¿Qué pasa si imágenes o vídeos falsos entran en la conciencia colectiva (difundidos y amplificados a través de las redes sociales y aplicaciones de vídeo) que promueven ese tipo de narrativa falsa, provocando que un gran número de personas caigan en ella?

“¿Imagínese si la gente comenzara a ver videos o audios que parecieran ejemplos persuasivos de elecciones amañadas? Es como echar gasolina al fuego”, dijo Chertoff. "Podríamos tener otro 6 de enero".

Esto, añadió, favorece los objetivos de Rusia, China y otras naciones de socavar la democracia y sembrar el caos social. "En un mundo en el que no podemos confiar en nada y no podemos creer en la verdad, no podemos tener democracia".

En lugar de preocuparse de que las personas sean engañadas por deepfakes, Chertoff dijo que teme lo contrario: que la gente no crea que las imágenes o el audio reales son legítimos porque prefieren realidades alternativas. 

“En un mundo en el que a la gente le han hablado de los deepfakes, ¿dicen que todo es deepfake? Por lo tanto, incluso las pruebas reales de mal comportamiento deben descartarse”, afirmó. “Y eso realmente da licencia a los autócratas y a los líderes gubernamentales corruptos para hacer lo que quieran”. ®

punto_img

Información más reciente

punto_img