Logotipo de Zephyrnet

MSN AI Post llama "inútil" al jugador de la NBA que murió inesperadamente

Fecha:

Un desquiciado artículo publicado por MSN, el portal de noticias en línea propiedad de Microsoft, calificó en su titular al fallecido exjugador de la NBA Brandon Hunter como “inútil”, lo que provocó indignación en las redes sociales. La publicación, que parece haber sido escrita por una IA, ha sido eliminada.

Hunter, de 42 años, se desplomó durante una sesión de hot yoga en los estudios de Orlando y murió el 12 de septiembre, según varios informes. Entre 2003 y 2005, Hunter jugó 67 partidos combinados para los Boston Celtics y los Orlando Magic y tuvo una larga carrera en Grecia e Italia.

Lea también: Regulador estadounidense investiga ChatGPT de OpenAI por difundir información falsa

Artículo de Microsoft MSN AI llama "inútil" al jugador de la NBA que murió inesperadamenteArtículo de Microsoft MSN AI llama "inútil" al jugador de la NBA que murió inesperadamente

'La IA no debería escribir obituarios'

En su titular, la distorsionada artículo de MSN dice: "Brandon Hunter inútil a los 42 años". El resto del artículo es una completa tontería y les dice a los lectores que el atleta “falleció” después de lograr “un éxito significativo como delantero [sic] de los Bobcats” y “actuó en 67 juegos”.

Aquí está la introducción a la publicación de MSN, que se modeló a partir de una Historia deportiva de TMZ sobre la muerte del ex jugador de la NBA, sólo que menos inteligible.

"El ex jugador de la NBA Brandon Hunter, que anteriormente jugó para los Boston Celtics y Orlando Magic, falleció a la edad de 42 años, según anunció el entrenador de baloncesto masculino de Ohio, Jeff Boals, el martes".

Los usuarios de las redes sociales rápidamente criticaron a MSN por ser insensible, descuidado y “vergonzoso en muchos niveles”, como un usuario de X, anteriormente Twitter, Ponlo. Otro gritó: “La IA no debería escribir obituarios. Paga a tus malditos escritores, MSN”.

Publicando en Reddit, un individuo escribí:

"La parte más distópica de esto es que la IA que nos reemplace será tan obtusa y estúpida como esta traducción, pero por el dinero, es suficiente".

Otro redditor se quejó del descuido de MSN, acusando a la red de preocuparse sólo por "ganar dinero".

"¡A quién le importa si esas palabras son precisas, con ellas se gana dinero!" bromeó el usuario sarcásticamente. “Va a acabar con Internet. Sólo un mar de mal contenido diseñado para jugar con el algoritmo y no hacer felices ni educados a los humanos”.

Esta no es la primera vez que MSN publica contenido erróneo generado por IA en su portal. En agosto, la plataforma publicó una extraña guía de viaje escrita por IA en Ottawa, Canadá, aconsejando a los turistas que visitaran un banco de alimentos local. El artículo fue eliminado tras las críticas, Futurismo reportaron.

Hechos alucinantes

Microsoft director senior jeff jones les dijo a The Verge que “el artículo [de Ottawa] no fue publicado por una IA no supervisada. En este caso, el contenido se generó mediante una combinación de técnicas algorítmicas con revisión humana, no un gran modelo de lenguaje o sistema de inteligencia artificial”.

En 2020, MSN según se informa despidió a todo el equipo de periodistas humanos que eran responsables de moderar el contenido en su plataforma. Según algunos informes, MSN ha estado publicando lo que se considera contenido ridículo y descuidado, incluidas historias sobre "sirenas".

Chatbots de IA generativa como los de OpenAI ChatGPT o Bard de Google son muy inteligentes, capaces de generar texto, código e incluso resolver problemas matemáticos complejos. Pero los modelos de IA también son propenso hasta producir falsedades y mentiras absolutas, a menudo con confianza.

La industria tecnológica se refiere a estas mentiras confiadas como “alucinaciones.” Esta debilidad se ha convertido en un área importante de atención para los reguladores de todo el mundo.

En julio, por ejemplo, la Comisión Federal de Comercio de EE. UU. (FTC) inició una investigación sobre OpenAI por posibles violaciones de las leyes de protección al consumidor relacionadas con ChatGPT, al que se acusa de difundir información falsa y de violar las normas de privacidad de datos.

La FTC está investigando si ChatGPT causó daño a las personas al proporcionar respuestas incorrectas a sus preguntas. Quiere saber si la empresa “participó en prácticas injustas o engañosas de privacidad o seguridad de datos” que causaron daño a la reputación de los usuarios, informó el Washington Post. reportaron.

punto_img

Información más reciente

punto_img