Logotipo de Zephyrnet

¿Por qué son todas mujeres?

Fecha:

Los asistentes digitales actuales mantienen nuestros diarios en orden, nos dan indicaciones y se encargan de nuestra correspondencia. Son, ante todo, secretarias virtuales, lo que significa que están cumpliendo un papel tradicionalmente desempeñado por las mujeres.

No por casualidad, Alexa de Amazon, Asistente de Google, Cortana de Microsoft y Siri de Apple tienen una cosa en común: son mujeres. O al menos son tan femeninas como pueden ser miles de líneas de código. Los usuarios lo saben. Las señales de género, como la voz, el nombre y el habla de un asistente digital, permiten a los usuarios inferir inmediatamente el género.

Se le podría perdonar por suponer que la mayoría de los asistentes de IA son mujeres, porque sus diseñadores, en su mayoría hombres, quieren que lo sean. Una simple búsqueda en Google recuerda rápidamente la imagen tradicional de una secretaria, pero esa no es toda la historia. Muchas grandes empresas de tecnología han realizado investigaciones que muestran la preferencia por las asistentes femeninas. Los datos los respaldan. Lo que hay detrás de esos datos merece una investigación.

Cómo las teorías de género del habla influyen en nuestra tecnología

Existe una gran cantidad de investigaciones sobre la diferencia entre el habla masculina y femenina, muchas de las cuales han sido recogidas por los medios de comunicación y los libros de divulgación científica. El trabajo de Robin Lakoff de 1975, "El lenguaje y el lugar de la mujer", sugirió varias formas en las que el habla masculina y femenina difiere. La investigación más reciente, de Deborah Tannen y otros, se ha sumado al trabajo. La evaluación general es que el habla femenina es más educada, menos directa y más complaciente con el interlocutor.

Si el usuario quiere un asistente personal que sea complaciente y educado, no debería sorprender que en la investigación del consumidor surja una y otra vez la preferencia por una voz femenina. Sin embargo, si esta preferencia se basa en hechos o en ficción, es motivo de debate.

Hay detractores prominentes de la teoría de la diferencia de género. Janet S. Hyde revisó 46 metanálisis y encontró diferencias relativamente pequeñas entre los géneros. Deborah Cameron, escribe en The Guardian, “La idea de que hombres y mujeres difieren fundamentalmente en la forma en que usan el lenguaje para comunicarse es un mito en el sentido cotidiano: una creencia generalizada pero falsa… Sean o no“ verdaderas ”en cualquier sentido histórico o científico, tales historias han consecuencias en el mundo real. Dan forma a nuestras creencias y, por lo tanto, influyen en nuestras acciones ". Cuando las empresas de tecnología encuestan a sus usuarios, estas son las creencias en las que los usuarios se basan para responder.

Las excepciones a la regla son curiosas en sí mismas. Los profesionales de la salud utilizan el asistente Watson de IBM para ayudar con la evaluación de tumores y el diagnóstico de cáncer, entre otras tareas. Parece que el posicionamiento de la IA como experto y autoridad se presta a una personalidad masculina; La investigación muestra que ambos géneros prestan más atención a las voces masculinas que a las femeninas. La decisión de IBM de convertir a Watson en un hombre tal vez no debería sorprender. En una cuestión de vida o muerte, desea darle a su IA la mejor oportunidad de ser escuchada, incluso si eso se basa en una premisa dudosa.

Los asistentes inteligentes en funciones administrativas o de secretaría, históricamente dominados por mujeres, reciben una personalidad femenina, lo que perpetúa un estereotipo de género para una nueva generación, mientras que los asistentes inteligentes en dominios asociados con hombres reciben una personalidad masculina. El resultado es un refuerzo actual de los roles de género tradicionales.

AI-Asistentes-Mujeres

El problema de género de la tecnología

La tecnología tiene un problema de género. Incluso en empresas de tecnología con cientos de empleados, no es inusual que el número de ingenieras de software sea de un solo dígito. Hablar sobre el problema, como hacen muchos, conlleva sus propios riesgos. No tiene mucho sentido hablar de forma anónima con un periódico cuando te describen como "una empleada de la empresa X". Estas declaraciones a menudo reducen el campo a un puñado de personas.

Las manifestaciones de esta disparidad de género pueden manifestarse de diversas formas. Algunas son triviales: “No entendían por qué sentarse en pufs no funciona como mujer”, me dijo una ingeniera. “Es porque usamos faldas”, aclaró de inmediato como si hablara con un colega.

Otros síntomas son más graves: algunas empresas no tienen instalaciones adecuadas para la eliminación de productos sanitarios. Los críticos también argumentan que si existe una cosmovisión estrecha en la empresa internamente, puede terminar incorporándose a los productos que desarrolla, del mismo modo que puede incorporarse a la cultura de la empresa.
La aplicación Apple Health, por ejemplo, fue duramente criticada porque en el lanzamiento no contaba con un rastreador de períodos, una característica que es esencial para el 48% de los usuarios que son mujeres, el mismo grupo demográfico que está subrepresentada en la fuerza laboral de la empresa. La preocupación es que cuando los productos se crean en el vacío, se crean sin tener en cuenta cómo impactan en el mundo en general y sin un compromiso crítico o interpretación de los datos.

AI-Asistentes-Mujeres

El problema de los datos

Los estudios corporativos realizados por Amazon y Microsoft encontraron preferencia por la voz femenina en las asistentes virtuales. Un portavoz de Microsoft dijo el Wall Street Journal que, "Para nuestros objetivos, construir un asistente útil, comprensivo y confiable, una voz femenina fue la mejor opción".
Para muchos, una voz femenina evoca las cualidades que más desean en un asistente digital: confiabilidad, eficiencia y, algo preocupante, deferencia. La realidad es que la gente no es particularmente educada con su IA. La evidencia sugiere que los usuarios de IA (pero particularmente niños) dar a las máquinas instrucciones directas sin el habitual "por favor" o "gracias". Si una de las influencias más presentes en la vida de un niño se convierte en IA, el género de esa IA podría tener un impacto en la forma en que el niño interactúa con los demás. Sin duda, es necesario realizar más investigaciones.

En cuanto a los adultos, esa investigación ya está llegando. Un equipo de investigadores en Stanford probó los estereotipos de género en asistentes con voz y descubrió que la IA con voz masculina calificó "más positivamente con respecto a la amabilidad y competencia" en comparación con la IA con voz femenina. El estudio sugiere que cualquier señal de género, por ejemplo, un nombre o una voz, puede desencadenar una respuesta estereotipada.

De manera crucial, encontraron que las computadoras con voz femenina en un rol dominante fueron evaluadas más negativamente que las computadoras con voz masculina en el mismo rol. En resumen, es fácil decirle a Alexa qué hacer porque es mujer. Tan pronto como ella comience a decirte lo que debes hacer, tal vez quieras hacer que él
hombre
Lo que fue igualmente interesante en su investigación fue que los sujetos de prueba negaron estar influenciados por el género percibido de las voces de la computadora. Claramente, lo fueron.

Como explican los investigadores, “al elegir una voz en particular, un diseñador o ingeniero puede desencadenar en la mente del usuario todo un conjunto de expectativas asociadas con el género de esa voz. Que los diseñadores e ingenieros asuman que cualquier voz es neutral es un error; una voz masculina trae consigo un gran conjunto de expectativas y respuestas basadas en estereotipos sobre los hombres, mientras que una voz femenina trae consigo un gran conjunto de expectativas y respuestas basadas en estereotipos sobre las mujeres ".

Sus hallazgos reflejan la investigación corporativa realizada por empresas como Microsoft y Amazon. La elección del género tiene un impacto, y sería deliberadamente ingenuo pensar de otra manera.

Los investigadores detallan la elección: “La decisión de imbuir una tecnología determinada con voz puede, por tanto, implicar elecciones difíciles. Diseñar tecnología que se ajuste a los estereotipos de género del usuario puede ser la forma más sencilla de satisfacer sus expectativas sobre la tecnología. Por otro lado, la tecnología que desafía estos estereotipos puede servir para cambiar, a largo plazo, los prejuicios profundamente arraigados que subyacen a los hallazgos del presente estudio ".

Ciertamente, parece que la gran tecnología está siguiendo los datos, lo que significa seguir el camino de menor resistencia y seguir el sesgo.

El resultado es un ciclo de refuerzo de los roles y estereotipos de género históricos, que muestran pocas señales de ceder. Un niño de hoy en día puede estar acostumbrado a secretarios masculinos y femeninos de una manera que sus padres no lo estaban, pero si la función de secretaria en sus vidas es una mujer representada digitalmente siempre presente y siempre deferente, no sería irrazonable suponer que ella crecerá con un conjunto similar de prejuicios de género.

La tecnología se infiltra en nuestras vidas a través del cine, la televisión y los anuncios. El género de la IA puede parecer al principio una rareza, pero no lo es. Cuando nos involucramos con él a diario, es difícil no pensar en él como algo normal. Sin embargo, debemos involucrarnos, porque no tener una opinión es, por defecto, tomar partido.

Fuente: https://unbabel.com/blog/ai-assistants-women/

punto_img

Información más reciente

punto_img