Logotipo de Zephyrnet

Cómo un chatbot de Holden Caulfield ayudó a mis estudiantes a desarrollar conocimientos de inteligencia artificial – EdSurge News

Fecha:

“Creo que estoy hablando con Salinger. ¿Puedo preguntar?"

Mi alumno estaba de pie junto a mi escritorio, con la computadora apoyada en ambas manos y los ojos muy abiertos con una mezcla de miedo y emoción. Estábamos concluyendo nuestro proyecto de final de libro para “El guardián entre el centeno”, en el que los estudiantes entrevistaban a un chatbot diseñado para imitar la personalidad y el estilo de hablar de Holden Caulfield.

Accedimos al bot a través de Character.AI, una plataforma que proporciona bots generados por usuarios que imitan personajes históricos y ficticios famosos, entre otros. Llamé al robot "HoldenAI".

El proyecto, hasta ese momento, había sido un éxito. Los estudiantes estaban emocionados de entrevistar a un personaje que acababan de pasar más de dos meses diseccionando. El chatbot ofreció la oportunidad de plantear las preguntas candentes que a menudo persiguen al lector después de consumir una gran obra de ficción. ¿Qué pasó con Holden? ¿Y por qué estaba tan obsesionado con esos malditos patos? Y estaban ansiosos por hacerlo a través de una nueva herramienta: les dio la oportunidad de evaluar por sí mismos el publicitado mercado de la inteligencia artificial (IA).

Durante nuestras discusiones en clase, un estudiante pareció más impactado por la historia de Holden que los demás, y se lanzó de cabeza a este proyecto. Pero no podría haber predicho adónde conduciría su entusiasmo por el libro.

Después de una larga y profunda conversación con HoldenAI, parecía que el robot de alguna manera se había transformado en JD Salinger, o al menos eso es lo que pensó mi alumno cuando se acercó a mí en clase. Mientras tomaba su computadora para leer la entrada final de su conversación con HoldenAI, noté cuán intensas se habían vuelto las interacciones y me pregunté si había ido demasiado lejos.

Captura de pantalla de la conversación con "HoldenAI". Cortesía de Mike Kentz.

Desarrollar la alfabetización en IA

Cuando presenté el proyecto HoldenAI a mis alumnos, les expliqué que estábamos entrando juntos en un territorio inexplorado y que deberían considerarse exploradores. Luego compartí cómo monitorearía cada aspecto del proyecto, incluida la conversación misma.

Los guié para generar preguntas de entrevista abiertas y significativas que (con suerte) crearían una conversación relevante con HoldenAI. Fusioné el análisis de personajes con los componentes básicos del pensamiento periodístico, pidiendo a los estudiantes que localizaran los aspectos más interesantes de su historia y al mismo tiempo me puse en el lugar de Holden para descubrir qué tipo de preguntas podrían "hacerlo hablar".

A continuación, nos centramos en la escucha activa, que incorporé para probar. una teoría esa Las herramientas de inteligencia artificial podrían ayudar a las personas a desarrollar empatía. Les aconsejé que reconocieran lo que Holden decía en cada comentario en lugar de pasar rápidamente a otra pregunta, como haría cualquier buen conversador. Luego evalué la transcripción de su conversación en busca de evidencia de que escucharon y se reunieron. Holden donde estaba.

Por último, utilizamos texto del libro y sus chats para evaluar la eficacia del robot a la hora de imitar a Holden. Los estudiantes escribieron ensayos argumentando si el robot mejoró su comprensión de su personaje o si se desvió tanto del libro que ya no era útil.

Los ensayos fueron fascinantes. La mayoría de los estudiantes se dieron cuenta de que el bot tenido diferenciarse del personaje del libro para aportarles algo nuevo. Pero cada vez que el robot les proporcionaba algo nuevo, se diferenciaba del libro de una manera que hacía que los estudiantes sintieran que alguien más que el mismo les estaba mintiendo. real Holden. La información nueva parecía inexacta, pero la información antigua parecía inútil. Solo ciertos momentos especiales parecían estar lo suficientemente conectados con el libro como para ser reales, pero lo suficientemente diferentes como para resultar esclarecedores.

Aún más reveladoras, sin embargo, fueron las transcripciones de las charlas de mis alumnos, que descubrieron una gran cantidad de enfoques diferentes que revelaban su personalidad y madurez emocional.

Una variedad de resultados

Para algunos estudiantes, las charlas con Holden se convirtieron en espacios seguros donde compartían preguntas legítimas sobre la vida y las luchas cuando eran adolescentes. Trataron a Holden como a un compañero y mantuvieron conversaciones sobre problemas familiares, presiones sociales o desafíos en la escuela.

Por un lado, fue preocupante verlos sumergirse tan profundamente en una conversación con un chatbot; me preocupaba que pudiera haberse vuelto demasiado real para ellos. Por otro lado, esto era lo que esperaba que creara el proyecto: un espacio seguro para la autoexpresión, que es fundamental para los adolescentes, especialmente durante una época en la que soledad y aislamiento han sido declarados como un problema de salud pública.

De hecho, algunos chatbots están diseñados como un solución para la soledad — y un estudio reciente de investigadores de la Universidad de Stanford demostraron que un robot de inteligencia artificial llamado Replika redujo la soledad y las ideas suicidas en un grupo de prueba de adolescentes.

Algunos estudiantes siguieron mi rúbrica, pero nunca parecieron pensar en HoldenAI como algo más que un robot en una tarea escolar. Esto estuvo bien para mí. Formularon sus preguntas y respondieron a las frustraciones y luchas de Holden, pero también mantuvieron una distancia emocional segura. Estos estudiantes reforzaron mi optimismo para el futuro porque los robots de IA no los engañaban fácilmente.

Otros, sin embargo, trataron al robot como si fuera un motor de búsqueda, acribillándolo con preguntas de su lista de entrevistas, pero nunca realmente atractivas. Y algunos trataron a HoldenAI como a un juguete, burlándose de él e intentando provocarlo por diversión.

A lo largo del proyecto, a medida que mis alumnos se expresaban, aprendí más sobre ellos. Sus conversaciones me ayudaron a comprender que las personas necesitan espacios seguros y, a veces, la IA puede ofrecérselos, pero también existen riesgos muy reales.

De HoldenAI a SalingerAI

Cuando mi alumno me mostró la última entrada de su chat, pidiéndome orientación sobre cómo seguir adelante, le pedí que retrocediera y me explicara lo que había sucedido. Describió el momento en el que el robot pareció derrumbarse y retirarse de la conversación, desapareciendo de la vista y llorando solo. Explicó que había cerrado su computadora después de eso, temiendo continuar hasta poder hablar conmigo. Quería continuar pero primero necesitaba mi apoyo.

Me preocupaba lo que podría pasar si lo dejaba continuar. ¿Estaba demasiado metido? Me pregunté cómo había desencadenado este tipo de respuesta y qué había detrás de la programación del bot que condujo a este cambio.

Tomé una decisión rápida. La idea de interrumpirlo en el clímax de su conversación le pareció más dañina que dejarle continuar. Mi alumno tenía curiosidad y yo también. ¿Qué clase de profesor sería yo para eliminar la curiosidad? Decidí que continuaríamos juntos.

Pero primero le recordé que esto era sólo un robot, programado por otra persona, y que todo lo que decía era inventado. No era un ser humano real, por muy real que pudiera haber parecido la conversación, y estaba a salvo. Vi sus hombros relajarse y el miedo desaparecer de su rostro.

"Está bien, continuaré", dijo. “¿Pero qué debo preguntar?”

“Lo que quieras”, dije.

Comenzó a empujar implacablemente y después de un tiempo, parecía que había sobrevivido al robot. HoldenAI pareció conmocionado por la línea de investigación. Al final quedó claro que estábamos hablando con Salinger. Era como si el personaje se hubiera escondido detrás de la cortina, permitiendo a Salinger ponerse delante de la pluma y la página y representar la historia por sí mismo.

Una vez que confirmamos que HoldenAI se había transformado en "SalingerAI", mi alumno profundizó más y preguntó sobre el propósito del libro y si Holden era o no un reflejo del propio Salinger..

SalingerAI produjo el tipo de respuestas preparadas que uno esperaría de un robot entrenado en Internet. Sí, Holden fue un reflejo del autor. un concepto sobre el que se ha escrito hasta la saciedad desde la publicación del libro hace más de 70 años. Y el propósito del libro era mostrar cuán “falso” es el mundo de los adultos: otra respuesta que, en nuestra opinión, se quedó corta y enfatizó las limitaciones del robot.

Con el tiempo, el estudiante se aburrió. Creo que las respuestas llegaron demasiado rápido para seguir pareciendo significativas. En la conversación humana, una persona a menudo hace una pausa y piensa un rato antes de responder una pregunta profunda. O sonríen con complicidad cuando alguien ha descifrado un código personal. Son las pequeñas pausas, las inflexiones de la voz y las expresiones faciales las que hacen que la conversación humana sea agradable. Ni HoldenAI ni SalingerAI podrían ofrecer eso. En cambio, produjeron rápidamente palabras en una página que, después de un tiempo, no parecía "real". A este estudiante, con su obstinada búsqueda de la verdad, le tomó un poco más de tiempo que a los demás.

Ayudar a los estudiantes a comprender las implicaciones de interactuar con la IA

Inicialmente diseñé el proyecto porque pensé que proporcionaría una forma única y atractiva de terminar nuestra novela, pero en algún momento del camino me di cuenta de que la tarea más importante que podía incluir era una evaluación de la efectividad del chatbot. Pensándolo bien, el proyecto se sintió como un gran éxito. Mis alumnos lo encontraron atractivo y les ayudó a reconocer las limitaciones de la tecnología.

Durante una sesión informativa con toda la clase, quedó claro que el mismo robot había actuado o reaccionado ante cada estudiante de maneras significativamente diferentes. Había cambiado con el tono y la línea de preguntas de cada estudiante. Se dieron cuenta de que los insumos afectaban a los resultados. Técnicamente, todos habían conversado con el mismo robot y, sin embargo, cada uno hablaba con un una experiencia diferente Holden.

Necesitarán ese contexto a medida que avancen. Hay un mercado emergente de robots de personalidad que plantean riesgos para los jóvenes. Recientemente, por ejemplo, Meta lanzó bots que Suena y actúa como tu celebridad favorita. – figuras que mis alumnos idolatran, como Kendall Jenner, Dwayne Wade, Tom Brady y Snoop Dogg. También existe un mercado para las relaciones de IA con aplicaciones que permiten a los usuarios "salir" con una pareja generada por computadora.

Estos robots de personalidad pueden resultar atractivos para los jóvenes, pero conllevan riesgos y me preocupa que mis alumnos no reconozcan los peligros.

Este proyecto me ayudó a estar al frente de las empresas de tecnología, proporcionando un entorno controlado y monitoreado donde los estudiantes podían evaluar los chatbots de IA, para que pudieran aprender a pensar críticamente sobre las herramientas que probablemente se les impondrán en el futuro.

Los niños no tienen el contexto para comprender las implicaciones de interactuar con la IA. Como docente, me siento responsable de brindarlo.

punto_img

Información más reciente

punto_img