Logotipo de Zephyrnet

Resulta que a la gente no le gusta que las máquinas le hablen

Fecha:

Es posible que el uso de la tecnología de inteligencia artificial le resulte útil al chatear con otros, pero esta última investigación muestra que las personas pensarán menos en alguien que usa tales herramientas.

Así es como se desarrolló el estudio, dirigido por personas de la Universidad Cornell de Estados Unidos. El equipo reclutó participantes y los dividió en 219 parejas. Luego se les pidió a estos sujetos de prueba que discutieran cuestiones de política a través de mensajes de texto. Para algunos de los pares, a ambos participantes en cada emparejamiento se les dijo que solo usaran sugerencias de Google. Respuesta inteligente, que sigue un tema de conversación y recomienda cosas para decir. A algunas parejas se les dijo que no usaran la herramienta en absoluto, y para otras parejas, a un participante de cada pareja se le dijo que usara Smart Reply.

Por lo tanto, uno de cada siete mensajes se envió usando texto generado automáticamente en el experimento, y esto hizo que las conversaciones parecieran más eficientes y con un tono positivo. Pero si un participante creía que la persona con la que estaba hablando estaba respondiendo con respuestas repetitivas, pensaba que estaba siendo menos cooperativo y se sentía menos afectuoso con él. 

Las personas pueden proyectar sus puntos de vista negativos sobre la IA en la persona que sospechan que la está usando.

Malte Jung, coautor de la investigación publicado en Scientific Reports, y profesor asociado de ciencias de la información en Cornell, dijo que podría deberse a que las personas tienden a confiar menos en la tecnología que a otros humanos, o perciben su uso en conversaciones como no auténtico. 

“Una explicación es que las personas podrían proyectar sus puntos de vista negativos sobre la IA en la persona que sospechan que la está usando”, dijo. El registro.

“Otra explicación podría ser que sospechar que alguien usa IA para generar sus respuestas podría generar una percepción de esa persona como menos cariñosa, genuina o auténtica. Por ejemplo, es probable que un poema de un amante se reciba con menos calidez si ese poema fue generado por ChatGPT”.

En un segundo experimento, se pidió a 291 pares de personas que discutieran nuevamente un tema de política. Esta vez, sin embargo, se dividieron en grupos que tenían que escribir manualmente sus propias respuestas, o podían usar la respuesta inteligente predeterminada de Google, o tenían acceso a una herramienta que generaba texto con un tono positivo o negativo. 

Las conversaciones que se llevaron a cabo con la respuesta inteligente de Google o la herramienta que generó texto positivo se percibieron como más optimistas que las que involucraron el uso de herramientas sin IA o la respuesta con respuestas negativas generadas automáticamente. Los investigadores creen que esto muestra que hay algunos beneficios de comunicarse usando IA en ciertas situaciones, como escenarios más transaccionales o profesionales.

“Les pedimos a los trabajadores colectivos que discutieran las políticas sobre el rechazo injusto del trabajo. En un contexto tan relacionado con el trabajo, un tono positivo más amigable tiene principalmente consecuencias positivas, ya que el lenguaje positivo acerca a las personas entre sí”, nos dijo Jung.

“Sin embargo, en otro contexto, el mismo idioma podría tener un impacto diferente e incluso negativo. Por ejemplo, una persona que comparte noticias tristes sobre la muerte de un familiar podría no apreciar una respuesta alegre y feliz y probablemente se desanime por eso. En otras palabras, lo que significa 'positivo' y 'negativo' varía dramáticamente según el contexto”.

La IA moldeará la comunicación humana a medida que la tecnología se vuelva cada vez más accesible. Microsoft y Google, por ejemplo, han anunciado herramientas destinadas a ayudar a los usuarios a escribir automáticamente correos electrónicos o documentos.

“Si bien la IA podría ayudarlo a escribir, está alterando su idioma de maneras que quizás no espere, especialmente al hacer que suene más positivo. Esto sugiere que al usar IA generadora de texto, estás sacrificando algo de tu propia voz personal”, Jess Hohenstein, autor principal del estudio y científico investigador de la Universidad de Cornell, prevenido este mes.  

Hohenstein nos dijo que "le encantaría ver más transparencia en torno a estas herramientas", que incluye alguna forma de revelar cuándo las personas las usan. “Tomar medidas hacia una mayor apertura y transparencia en torno a los LLM podría ayudar a aliviar parte de esa sospecha general que vimos hacia la IA”. ®

punto_img

Información más reciente

punto_img