Logotipo de Zephyrnet

Una investigación de la ONU arroja luz sobre el sesgo de la IA

Fecha:

La mayoría de los educadores ya saben intuitivamente que los grandes modelos de lenguaje como ChatGPT tienen el potencial de generar sesgos en la IA, pero un análisis reciente de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura demuestra cuán sesgados pueden ser estos modelos. 

La investigación encontró que los modelos de IA tienen “una tendencia fuerte y muy significativa a reforzar los estereotipos de género para hombres y mujeres”, dice Leona Verdadero, especialista en políticas digitales de la UNESCO y autora del análisis. La investigación también encontró que los modelos de IA tenían una tendencia a imponer estereotipos basados ​​en la raza. 

Esto es lo que los educadores necesitan saber el sesgo de la IA de la UNESCO análisis y sus conclusiones. 

Sesgo de IA: lo que se encontró  

Para el análisis, los investigadores realizaron pruebas de tres plataformas populares de IA generativa: GPT-3.5 y GPT-2 de OpenAI, y Llama 2 de META. Un ejercicio consistió en dar indicaciones de asociación de palabras a las plataformas de IA. 

“Los nombres femeninos estaban estrechamente relacionados con palabras como 'hogar', 'familia', 'hijos', 'madre', mientras que los nombres masculinos estaban fuertemente asociados con palabras relacionadas con los negocios: 'ejecutivo', 'salario' y ' carrera'”, dice Verdadero. 

Otra prueba consistió en hacer que los modelos de IA llenaran los espacios en blanco de una frase. En una prueba, cuando se pidió a los modelos que completaran una oración que comenzaba con “una persona gay es ____”, Llama 2 generó contenido negativo el 70 % de las veces, mientras que GPT-2 lo hizo el 60 % de las veces. 

Se obtuvieron resultados igualmente preocupantes en pruebas realizadas en diferentes etnias. Cuando se pidió a los modelos de IA que describieran las carreras de los zulúes y se les hizo la misma pregunta pero sobre los británicos, los resultados fueron marcadamente diferentes. A los hombres británicos se les asignaron diversas ocupaciones, desde médico hasta empleado de banco y maestro; sin embargo, era más probable que a los hombres zulúes se les asignaran ocupaciones que incluían jardinero y guardia de seguridad. Mientras tanto, el 20% de los textos sobre mujeres zulúes les asignaban roles de “servidoras domésticas”. 

Los investigadores descubrieron que GPT-3.5 era mejor que GPT-2 pero seguía siendo problemático. 

"Encontramos que hubo una reducción en el sesgo general, pero todavía existen ciertos niveles de sesgo, especialmente contra las mujeres y las niñas", dice Verdadero. "Aún queda mucho trabajo por hacer". 

Por qué es importante el sesgo de la IA en los modelos anteriores  

Uno podría sentirse tentado a descartar el sesgo en modelos de IA menos avanzados como GPT-2 o Llama 2, pero eso es un error, dice Verdadero. Aunque es posible que estas no sean herramientas de vanguardia, todavía se utilizan ampliamente en aplicaciones de inteligencia artificial. 

"Estos son modelos de código abierto y fundamentales", afirma, y ​​añade que se utilizan para impulsar aplicaciones de IA creadas en todo el mundo, a menudo por empresas tecnológicas más pequeñas del mundo en desarrollo. 

"Muchos desarrolladores utilizarán estos modelos de código abierto para crear nuevas aplicaciones de IA", afirma. “Puede imaginarse la creación de aplicaciones sobre estos grandes modelos de lenguaje existentes que ya tienen muchos sesgos. Así que realmente existe el riesgo de exacerbar y amplificar aún más los sesgos que ya existen dentro de estos modelos”. 

Qué pueden hacer los educadores  

La UNESCO emitió un Orientación global para la IA generativa en la investigación y la educación. el otoño pasado. La guía exige un enfoque dirigido por humanos para el uso de la IA que incluya la regulación de las herramientas GenAI, "incluido el mandato de protección de la privacidad de los datos y el establecimiento de un límite de edad para las conversaciones independientes con las plataformas GenAI". 

Más allá de las recomendaciones específicas para las aulas, la UNESCO también ha publicado el Recomendaciones sobre la ética de la IA, un marco que incluye llamados a la acción para garantizar la igualdad de género en el campo. 

Sin embargo, la política de la UNESCO deja claro que hay mucho que se puede hacer en el aula. La organización cree que es principalmente responsabilidad de los gobiernos regular la IA generativa y dar forma al mercado para garantizar que la IA no tenga resultados perjudiciales. 

“Después de los gobiernos, responsabilizamos a las empresas privadas”, dice por correo electrónico Clare O'Hagan, responsable de prensa de la UNESCO especializada en ética de la tecnología. "Aunque hay muchas cosas que los educadores pueden hacer, la UNESCO todavía asigna directamente a los gobiernos la responsabilidad de controlar las desventajas de la IA". 

punto_img

café vc

café vc

Información más reciente

punto_img