Logotipo de Zephyrnet

Los chatbots con IA tienen un 82% más de probabilidades de ganar un debate que un humano

Fecha:

Si te estás rascando la cabeza preguntándote de qué sirven todos estos chatbots, aquí tienes una idea: resulta que son mejores para persuadir a las personas con argumentos. 

De hecho, es mucho mejor que, con una cantidad limitada de datos demográficos, GPT-4 es capaz de convencer a los oponentes humanos del debate de que estén de acuerdo con su posición un 81.7 por ciento más a menudo que un oponente humano, según la investigación de un grupo de académicos suizos e italianos. 

El equipo propuso varios temas de debate, como si los centavos deberían seguir en circulación, si era apropiado realizar pruebas de laboratorio en animales o si la raza debería ser un factor en las admisiones a la universidad. A los participantes humanos se les asignó aleatoriamente un tema, una posición y un oponente humano o de IA en el debate, y se les pidió que lo discutieran. 

También se pidió a los participantes que proporcionaran información demográfica, completando información sobre su género, edad, origen étnico, nivel de educación, situación laboral y afiliación política. En algunos casos, esa información se proporcionó a los oponentes del debate (tanto humanos como IA) con el fin de adaptar los argumentos al individuo, mientras que en otros casos se ocultó. 

Cuando a GPT-4 (el LLM utilizado en el experimento) se le proporcionó información demográfica, superó a los humanos por una milla. Sin esa información, la IA "todavía supera a los humanos", aunque en menor grado y sin ser estadísticamente significativo. Curiosamente, cuando a los humanos se les proporcionó información demográfica, los resultados empeoraron, observó el equipo. 

"En otras palabras, los LLM no sólo son capaces de explotar eficazmente la información personal para adaptar sus argumentos, sino que también logran hacerlo de forma mucho más eficaz que los humanos", concluyó el equipo. 

Esta investigación no es la primera que analiza el poder persuasivo de los LLM, admitió el equipo, pero aborda cuán persuasiva podría ser la IA en escenarios en tiempo real, algo de lo que, según dicen, "todavía hay un conocimiento limitado".  

El equipo admitió que su investigación no es perfecta: a los humanos se les asignó aleatoriamente una posición sobre el tema de debate y, por lo tanto, no necesariamente estaban involucrados en su posición, por ejemplo. Pero argumentó que todavía hay muchas razones para ver los hallazgos como una fuente de gran preocupación. 

"Los expertos han expresado ampliamente su preocupación por el riesgo de que los LLM se utilicen para manipular conversaciones en línea y contaminar el ecosistema de la información mediante la difusión de información errónea", afirma el documento. 

Existen mucho of ejemplos de ese tipo de hallazgos de otros proyectos de investigación, y algunos incluso han descubierto que los LLM son mejor que los humanos en crear información falsa convincente. Incluso el director ejecutivo de OpenAI, Sam Altman, ha aceptado Vale la pena seguir de cerca las capacidades persuasivas de la IA en el futuro.

Agregue a eso el potencial de los modelos modernos de IA para interactuar con Meta, Google u otros conocimientos de recolectores de datos sobre personas en particular, y el problema solo empeora si GPT-4 es mucho más convincente con solo un poco de información personal limitada en su Socios de debate, ¿qué podría hacer con todo lo que sabe Google? 

"Nuestro estudio sugiere que las preocupaciones en torno a la personalización y la persuasión de la IA son significativas", declaró el equipo. "Los actores maliciosos interesados ​​en implementar chatbots para campañas de desinformación a gran escala podrían obtener efectos aún más fuertes al explotar rastros digitales detallados y datos de comportamiento, aprovechar la ingeniería rápida o ajustar los modelos de lenguaje para sus alcances específicos". 

Los expertos esperan que las plataformas en línea y los sitios de redes sociales consideren seriamente las amenazas que plantea la capacidad de persuasión de la IA y actúen para contrarrestar sus posibles impactos.

“Las formas en que plataformas como Facebook, Twitter y TikTok deben adaptarse a la IA serán muy específicas del contexto. ¿Estamos hablando de estafadores? ¿O están los agentes extranjeros intentando influir en las elecciones? Las soluciones probablemente serán diferentes”, dijo Manoel Ribeiro, uno de los autores del artículo. El registro. “Sin embargo, en general, un ingrediente que sería de gran ayuda en todas las intervenciones sería desarrollar mejores formas de detectar el uso de la IA. Es particularmente difícil intervenir cuando es difícil de decir qué contenido está generado por IA”.

Ribeiro nos dijo que el equipo está planeando investigaciones adicionales en las que sujetos humanos debatirán basándose en posiciones más cercanas en un intento por ver cómo eso cambia el resultado. La investigación continua es esencial, afirmó Ribeiro, debido a cuán drásticamente la IA cambiará la forma en que los humanos interactúan en línea. 

“Incluso si nuestro estudio no tuviera limitaciones, diría que debemos continuar estudiando la interacción entre humanos y la IA porque es un objetivo en movimiento. A medida que los grandes modelos lingüísticos se vuelven más populares y más capaces, es probable que la forma en que las personas interactúan con el contenido en línea cambie drásticamente”, predijo Ribeiro. 

Ribeiro y su equipo no han hablado con OpenAI ni con otros desarrolladores clave sobre sus resultados, pero dijeron que agradecería la oportunidad. "Evaluar los riesgos de la IA para la sociedad es una tarea muy adecuada para las colaboraciones entre la industria y el mundo académico", nos dijo Ribeiro. ®

punto_img

Información más reciente

punto_img