Logotipo de Zephyrnet

Georgia Tech está tratando de evitar que un asistente de enseñanza potenciado por ChatGPT 'alucine' – EdSurge News

Fecha:

Una universidad probablemente no contrataría a un asistente de enseñanza que tiende a mentir a los estudiantes sobre el contenido del curso o los plazos. Entonces, a pesar del rumor reciente sobre cómo el nuevo software de inteligencia artificial como ChatGPT podría servir como ayuda en las clases, existe una preocupación generalizada sobre la tendencia de la tecnología a simplemente inventar hechos.

Los investigadores del Instituto de Tecnología de Georgia creen que pueden tener una manera de mantener la honestidad de los chatbots. Y están probando el enfoque en tres cursos en línea este verano.

Lo que está en juego es si es posible domesticar los llamados "modelos de lenguaje extenso" como ChatGPT, que generalmente se entrenan con información extraída de Internet y están diseñados para escupir respuestas que se ajustan a patrones predecibles en lugar de ceñirse estrictamente a la realidad.

"ChatGPT no se preocupa por los hechos, solo se preocupa por cuál es la siguiente palabra más probable en una cadena de palabras", explica Sandeep Kakar, científico investigador de Georgia Tech. “Es como un humano engreído que presentará una mentira detallada con una cara seria, por lo que es difícil de detectar. Yo lo llamo un mocoso que no tiene miedo de mentir para impresionar a los padres. Tiene problemas para decir: 'No sé'”.

Como resultado, los investigadores y las empresas que trabajan para desarrollar productos de consumo utilizando estos nuevos bots de IA, incluso en la educación, están buscando formas de evitar episodios inesperados de fabricación.

"Todos los que trabajan con ChatGPT intentan detener las alucinaciones", agrega Kakar, "pero está literalmente en el ADN de los grandes modelos de lenguaje".

Georgia Tech tiene un aliado inusual en su búsqueda para domar ChatGPT. La universidad ha pasado muchos años construyendo su propio chatbot de IA que utiliza como asistente de enseñanza, conocido como Jill Watson. Esta asistencia técnica digital se ha vuelto tan buena que, en algunos casos, los estudiantes en línea no saben si están recibiendo respuestas de un TA humano o del bot.

Pero las últimas versiones de ChatGPT y los rivales de otros gigantes tecnológicos son aún más potentes. Así que Ashok K. Goel, profesor de informática y computación centrada en el ser humano en la universidad que lideró la creación de Jill Watson, ideó un plan inusual. Le está pidiendo a Jill Watson que sirva como una especie de monitora o salvavidas para ChatGPT. Esencialmente, Jill Watson está verificando el trabajo de su compañero de chatbot antes de enviar los resultados a los estudiantes.

“Jill Watson es la intermediaria”, le dice Goel a EdSurge.

El plan es capacitar a Jill Watson en los materiales específicos de cualquier curso para el que se utilice, introduciendo el texto de los videos y diapositivas de conferencias, así como el contenido del libro de texto. Luego, Jill Watson puede instruir a ChatGPT sobre qué parte del libro de texto mirar antes de enviar una respuesta a un estudiante, o puede verificar los resultados que ChatGPT extrajo de Internet utilizando el material del libro de texto como fuente de verdad. “Puede hacer alguna verificación”, es como lo expresa Goel.

Kakar dice que hacer que los bots trabajen juntos puede ser la mejor manera de mantenerlos honestos, ya que las alucinaciones pueden ser una característica permanente de los grandes modelos de lenguaje.

“Dudo que podamos cambiar el ADN, pero podemos detectar esos errores”, dice Kakar. "Puede detectar cuándo 'esto no huele bien' y básicamente puede evitar que [las respuestas incorrectas] sigan adelante".

El chatbot experimental está en uso este verano en tres cursos en línea: Introducción a la ciencia cognitiva (impartido por Goel), Interacción humano-computadora e IA basada en el conocimiento. Esos cursos matriculan entre 100 y 370 estudiantes cada uno. Los estudiantes pueden probar el chatbot experimental TA de una de dos maneras: pueden hacer preguntas al chatbot en un foro de discusión público donde todos en la clase pueden ver las respuestas, o pueden plantear preguntas al chatbot en privado. Los estudiantes han dado su consentimiento para permitir que los investigadores analicen todos los resultados, incluidos los chats privados, para monitorear los bots e intentar realizar mejoras.

¿Cómo va?

Kakar admite que es un trabajo en progreso. Justo esta semana, por ejemplo, los investigadores estaban probando el chatbot y dieron una respuesta que incluía "una hermosa cita de un libro y un resumen del mismo". Pero había una trampa. El libro que citaba con tanta confianza no existe.

El chatbot transmitió la respuesta inventada, pero Kakar dice que también detectó que algo no estaba del todo bien, por lo que adjuntó una advertencia a la respuesta que decía "Tengo poca confianza en esta respuesta".

"No queremos que se transmitan las alucinaciones", dice Kakar, "pero con suerte, si lo hacen, habrá una advertencia de baja confianza".

Kakar dice que en la gran mayoría de los casos, más del 95 por ciento del tiempo hasta ahora en las pruebas, el chatbot brinda información precisa. Y hasta ahora a los estudiantes parece gustarles, algunos incluso han invitado al chatbot a cenar. (Para lo cual está programado para ofrecer una de varias respuestas rápidas, que incluyen "Me encantaría, pero solo como bytes").

Aún así, es difícil imaginar que Georgia Tech, o cualquier otra universidad, contrate a un TA dispuesto a inventar libros para citar, aunque solo sea ocasionalmente.

“Estamos luchando por los últimos puntos porcentuales”, dice Kakar. “Queremos asegurarnos de que nuestras precisiones estén cerca del 99 por ciento”.

Y Kakar admite que el problema es tan difícil que a veces se despierta a las 3 de la mañana preocupándose si hay algún escenario que aún no ha planeado: “Imagínese a un estudiante preguntando cuándo debe entregar esta tarea y ChatGPT inventa una fecha. Ese es el tipo de cosas contra las que tenemos que protegernos, y eso es lo que estamos tratando de hacer, básicamente construir esas barandillas”.

Goel espera que el experimento de verano salga lo suficientemente bien como para pasar a más clases en el otoño y en más áreas temáticas, incluidas biología y economía.

Entonces, si estos investigadores pueden crear este robot TA, ¿qué significa eso para el papel de los profesores?

“Jill Watson es solo una asistente de enseñanza: es un portavoz del profesor, no es el profesor”, dice Kakar. “Nada cambia en el rol del profesor”.

Señala que todo con lo que se está entrenando el chatbot son materiales a los que los estudiantes tienen acceso en otras formas, como libros de texto, diapositivas y videos de conferencias. Además, en estos días, los estudiantes pueden ir a YouTube y obtener respuestas a casi cualquier cosa por su cuenta. Pero dice que experimentos anteriores con cursos en línea gratuitos o de bajo costo han demostrado que los estudiantes aún necesitan un profesor humano para mantenerlos motivados y hacer que el material sea actual y fácil de identificar.

"Los asistentes de enseñanza nunca reemplazaron a los profesores", dice, "entonces, ¿por qué Jill Watson reemplazaría a los profesores?"

punto_img

Información más reciente

punto_img