Logotipo de Zephyrnet

Google impide que AI Gemini Chatbot hable sobre discursos electorales

Fecha:

tyler cruz


tyler cruz

Publicado el: Marzo 13, 2024

Al modelo Gemini AI creado por Google se le ha prohibido hablar sobre las elecciones durante el ciclo electoral de 2024. Varias empresas de tecnología, incluida Google, han logrado avances masivos en tecnología de inteligencia artificial durante el año pasado. Sin embargo, los modelos de IA se han vuelto lo suficientemente poderosos como para provocar un fraude electoral a gran escala y alimentar campañas de propaganda política si caen en las manos equivocadas.

A medida que la IA está cada vez más disponible, a los votantes estadounidenses les queda una comprensible preocupación de que empresas como Google puedan utilizar sus modelos de IA para cambiar el curso de las elecciones mediante la difusión de información errónea. Muchos usuarios ya informan que modelos como Gemini y ChatGPT tienen claros sesgos políticos en sus escritos.

Alphabet (la empresa matriz de Google) está abordando las preocupaciones de la gente reforzando los principios de su empresa. Han prohibido por completo los discursos electorales durante el ciclo electoral de 2024.

Si le hace preguntas a Gemini relacionadas con las elecciones sobre Donald Trump, Joe Biden u otros candidatos, el chatbot simplemente responde: “Todavía estoy aprendiendo a responder esta pregunta. Mientras tanto, prueba la Búsqueda de Google”.

Estas restricciones se anunciaron por primera vez en diciembre. Google explicó que querían implementar estas defensas temprano, para que los actores (o incluso la propia empresa) no tuvieran la oportunidad de utilizarlas para difundir información errónea.

"En preparación para las numerosas elecciones que tendrán lugar en todo el mundo en 2024 y por precaución en un tema tan importante, pronto restringiremos los tipos de consultas relacionadas con las elecciones para las cuales Gemini devolverá respuestas", afirma un portavoz de Google.

El endurecimiento del discurso electoral en Géminis contrasta marcadamente con las recientes decisiones de OpenAI. La empresa detrás de ChatGPT se ha ganado mala prensa después de incumplir dos importantes cláusulas de seguridad. Los términos de servicio de ChatGPT inicialmente no permitían su uso en ninguna campaña política o militar.

Con el tiempo, ChatGPT modificó sus términos de servicio para prohibir únicamente los usos "riesgosos" de ChatGPT en campañas políticas y permitir que los militares lo usen para cualquier cosa que no sea construir armas.

punto_img

Información más reciente

punto_img