Logotipo de Zephyrnet

Con cicatrices mentales: los trabajadores de Kenia enseñaron a ChatGPT a reconocer textos ofensivos

Fecha:

Según los informes, OpenAI contrató a trabajadores en Kenia, que examinaron decenas de miles de muestras de texto en busca de contenido sexista, racista, violento y pornográfico, para ayudar a que su modelo ChatGPT fuera menos tóxico.

Lanzado en noviembre pasado, ChatGPT ha conquistado Internet. Su capacidad para generar texto automáticamente al recibir un mensaje de entrada ha llevado a millones de usuarios a instruirlo para que realice todo tipo de tareas diferentes: contar chistes, escribir código, responder preguntas y más.

No todas esas instrucciones han sido completamente benignas; después de todo, solo somos humanos. Sin embargo, ChatGPT está diseñado para ser más conversacional y más seguro que su predecesor GPT-3: puede admitir errores y negarse a realizar solicitudes inapropiadas.

Para aprender las características del lenguaje ofensivo y abusivo, ChatGPT necesitaba ser entrenado en cantidades gigantes de datos limpios y etiquetados que mostraran la diferencia entre contenido seguro y dañino.

Etiquetar datos es tedioso y requiere mucho tiempo. El trabajo generalmente se subcontrata a contratistas que reclutan empleados de países donde la mano de obra es más barata. En 2021, OpenAI supuestamente firmó tres contratos por un valor aproximado de $ 200,000 con sama – una empresa emergente que proporciona servicios de anotación de datos con sede en San Francisco y que opera en países en desarrollo – para etiquetar texto para entrenar ChatGPT, según un reporte in Horario esta semana.

Luego, Sama reclutó a tres docenas de trabajadores en Kenia que se dividieron en tres grupos, cada uno de los cuales tenía la tarea de revisar miles de muestras de texto que contenían abuso sexual, discurso de odio y violencia.

Extraído de Internet, el texto describía todo tipo de actos peligrosos, ilegales y lascivos, incluidos asesinatos, suicidios, torturas e incestos. Algunos empleados informaron estar traumatizados por tener que procesar tanto contenido horrible. Un hombre dijo que sufría de visiones recurrentes después de leer un pasaje que describía a un hombre teniendo sexo con un perro en compañía de un niño pequeño.

“Eso fue una tortura”, dijo. “Leerás una serie de declaraciones como esa durante toda la semana. Para cuando llega el viernes, estás perturbado por pensar en esa imagen”.

Los trabajadores soportaban turnos de nueve horas y ganaban entre 163 y 248 chelines kenianos por hora. Eso es alrededor de $ 1.32 a $ 2, sumas realmente insignificantes para OpenAI, que se prevé que facture $ 200 millones en 2023.

Otro contrato de etiquetado de datos no relacionado con ChatGPT involucró a Sama pidiendo a los empleados que encontraran imágenes desagradables, pornográficas y violentas que retrataran cosas como la muerte, la violación y la bestialidad. El contenido, parte del cual sería ilegal en los EE. UU., supuestamente llevó a Sama a finalizar sus contratos con OpenAI en febrero de 2022, ocho meses antes de lo previsto originalmente. Según los informes, a los empleados reclutados por Sama se les dijo que su trabajo con OpenAI se canceló después de que la startup enfrentara duras críticas por trabajar con Meta's Facebook en otro proyecto de moderación de contenido.

“Sama finalizó el contrato de OpenAI porque el equipo de África Oriental no se sentía cómodo con el trabajo solicitado. El final del contrato Meta es separado, pero relacionado. Después de consultar con su equipo global, Sama tomó la decisión de abandonar todo el trabajo de moderación de contenido porque no se alineaba con la visión y la misión de la empresa”, nos dijo un portavoz de la empresa.

El advenedizo finalizará todos los proyectos de etiquetado de datos para la moderación de contenido en marzo de 2023 y ha establecido un "gremio de ética", un grupo de empleados que revisará las solicitudes de trabajo, según nos dijeron.

En declaraciones compartidas con Horario, OpenAI confirmó que había trabajado con Sama para etiquetar los datos utilizados para entrenar ChatGPT y dijo que hubo una falta de comunicación sobre los tipos de imágenes que querían recopilar. Según los informes, no quería imágenes ilegales y no las vio.

El valor de un dólar

“Para aclarar, Sama paga entre 26,600 y 40,000 chelines kenianos ($209 a $322) por mes, que es más del doble del salario mínimo en Kenia y también muy por encima del salario digno”, dijo un portavoz de Sama. El registro.

“Compararlo con los salarios estadounidenses es una equivalencia falsa que caracteriza erróneamente la situación. Un salario occidental comparativo estaría entre $ 30 y $ 45 por hora. Sama paga casi el doble de lo que pagan otros moderadores de contenido en el área y ofrece un paquete completo de beneficios y pensión.

“Nuestra misión es garantizar que la inteligencia artificial general beneficie a toda la humanidad, y trabajamos arduamente para construir sistemas de IA seguros y útiles que limiten el sesgo y el contenido dañino. Clasificar y filtrar [texto e imágenes] dañinos es un paso necesario para minimizar la cantidad de contenido violento y sexual incluido en los datos de entrenamiento y crear herramientas que puedan detectar contenido dañino”.

Las empresas de etiquetado de datos como Sama dicen que están ayudando a sacar a la gente de la pobreza en los países más pobres, pero HorarioLa investigación de es un claro recordatorio de que las habilidades aparentemente mágicas de los modelos de IA se construyen sobre la base de mano de obra de bajo costo.

“La misión de Sama es derribar las barreras al empleo formal dando trabajo a personas talentosas que de otro modo no tendrían las mismas oportunidades profesionales. Sama emplea a personas que de otro modo no tendrían las calificaciones para trabajos tecnológicos de nivel de entrada, luego los capacita, no solo para un trabajo, sino también para una carrera, ofreciendo clases de educación continua, clases de redacción de CV, clases de educación financiera y oportunidades para avanzar en el interior. o fuera de la organización”, nos dijo un vocero en un comunicado.

“Sama ha impactado a más de 60,000 20 personas, envió a 160,000 personas a la universidad a través de nuestros programas de becas y proporcionó $XNUMX XNUMX en fondos para empresas de empleados y nuevas empresas”.

Mientras tanto, la exageración de la inteligencia artificial general continúa creciendo. Incluso las mejores empresas de inteligencia artificial aún no han descifrado el secreto de la construcción de modelos lo suficientemente avanzados como para aprender patrones de los datos de manera efectiva con poca o ninguna supervisión humana.

La tecnología puede haber progresado, pero aún depende de trabajadores de países en desarrollo sentados frente a pantallas de computadora que realizan tareas repetitivas y monótonas todo el día para entrenar modelos gigantes de IA para empresas tecnológicas que ganan millones de dólares.

El registro ha pedido comentarios a OpenAI. ®

punto_img

Información más reciente

punto_img