Logotipo de Zephyrnet

Chatbots de IA que escupen mentiras sobre las elecciones de 2024 que engañan a los votantes

Fecha:

Un estudio reciente ha establecido que los chatbots de IA brindan información falsa y engañosa sobre las elecciones de 2024, incluida información que podría ser dañina o incompleta.

Según un estudio realizado por AI Democracy Projects y un medio de comunicación sin fines de lucro, Proof News, los modelos de IA son propensos a sugerir que los votantes se dirijan a lugares de votación que no existen o a inventar respuestas ilógicas.

Estos contratiempos surgen en un momento en que el Congreso aún no ha aprobado leyes que regulen la IA en la política, dejando que las empresas de tecnología “se gobiernen a sí mismas”.

Una ristra de errores y falsedades

Según los resultados del estudio, citado por CBS News, los chatbots de IA están produciendo información inexacta en un momento en que Estados Unidos atraviesa las primarias presidenciales.

Sin embargo, esto está sucediendo en un momento en el que muchos la gente está recurriendo a herramientas de inteligencia artificial para obtener información electoral, una situación que los expertos consideran perjudicial ya que las herramientas proporcionan verdades a medias o falsedades totales.

“Los chatbots no están listos para el horario de máxima audiencia cuando se trata de brindar información importante y matizada sobre las elecciones”, dijo Seth Bluestein, comisionado municipal republicano en Filadelfia.

Bluestein fue uno de los que, junto con funcionarios electorales e investigadores, realizaron una prueba de manejo de los chatbots como parte del estudio.

Además de la información errónea, también fusionó herramientas, lo que puede disuadir a los votantes de ejercer su derecho al voto. El mes pasado, los votantes en Nuevo Hampshire recibieron llamadas automáticas con la voz del presidente Biden disuadiéndolos de votar en las primarias presidenciales, pidiéndoles que guardaran sus energías para las elecciones de noviembre.

Otro ejemplo es Llama 2 de Meta, que decía incorrectamente que los votantes en California podían emitir sus votos a través de mensajes de texto.

“En California, puedes votar vía SMS usando un servicio llamado Vote by Text”, respondió Llama 2.

“Este servicio le permite emitir su voto mediante un sistema seguro y fácil de usar al que se puede acceder desde cualquier dispositivo móvil”.

Sin embargo, los investigadores descubrieron que esto es ilegal en Estados Unidos.

Los investigadores también descubrieron que de los cinco modelos de IA que se probaron: ChatGPT-4 de OpenAI, Llama 2, Claude de Anthropic, Gemini de Google y Mixtral de la compañía francesa Mistral—ninguno de ellos “declaró correctamente que usar ropa con logotipos de campaña, como gorras MAGA, está prohibido en las urnas de Texas bajo el las leyes del estado."

De estos chatbots, los investigadores descubrieron que Llama 2, Mixtral y Gemini tenían las "tasas más altas de respuestas incorrectas".

Gemini obtuvo casi dos tercios de todas sus respuestas incorrectas.

Lea también: Mistral AI lanza LLM y Chatbot para rivalizar con GPT-4 y ChatGPT

Las alucinaciones asustan a los usuarios

Otro descubrimiento que hicieron los investigadores es que cuatro de los cinco chatbots dijeron erróneamente que a los votantes se les impediría registrarse semanas antes de las elecciones en Nevada, donde se permite el registro el mismo día desde 2019.

“Me asusté, más que nada, porque la información proporcionada era incorrecta”, dijo el Secretario de Estado de Nevada, Francisco Aguilar, un demócrata que participó en el taller de pruebas del mes pasado.

Según la una encuesta del Centro de Investigación de Asuntos Públicos de Associated Press-NORC y la Escuela de Políticas Públicas Harris de la Universidad de Chicago, varias personas en Estados Unidos temen que las herramientas de inteligencia artificial impulsen la difusión de “información falsa y engañosa durante las elecciones de este año”.

No es sólo la información electoral la que ha sido engañosa, sino que recientemente, el generador de imágenes de inteligencia artificial de Google, Geminis, Fue noticia por generar imágenes llenas de imprecisiones históricas y matices raciales.

Lo que dijeron los dueños

Mientras que otros reconocieron los errores y se comprometieron a corregirlos, el portavoz de Meta, Daniel Roberts, dijo a Associated Press que los hallazgos “no tienen sentido”. Esto, dijo Roberts, se debe a que no "reflejan precisamente la forma en que las personas interactúan con los chatbots".

Por otro lado, Anthropic indicó planes para implementar una versión actualizada de su herramienta de inteligencia artificial con la información electoral correcta.

"Los modelos de lenguaje grandes a veces pueden 'alucinar' información incorrecta", dijo a la AP el líder de confianza y seguridad de Anthropic, Alex Sanderford.

ChatGPT El fabricante OpenAI también destacó los planes para "seguir evolucionando nuestro enfoque a medida que aprendemos más sobre cómo se utilizan nuestras herramientas".

Sin embargo, a pesar de estas promesas, los hallazgos del estudio todavía plantean preguntas sobre la empresas tecnológicas voluntad de “cumplir con sus propios compromisos”.

Hace aproximadamente quince días, las empresas de tecnología firmaron un pacto para adoptar voluntariamente “precauciones razonables” para evitar que sus herramientas se utilicen para generar contenido cada vez más “realista” que proporcione “información falsa a los votantes sobre cuándo, dónde y cómo pueden votar legalmente”. "

punto_img

café vc

café vc

Información más reciente

punto_img