Logotipo de Zephyrnet

Al igual que los humanos, esta innovadora IA crea conceptos a partir de las palabras que aprende

Fecha:

Los perros de la pradera son todo menos perros. Con un cuerpo parecido a un Hershey's Kiss y una forma muy sofisticada chirrido Para las comunicaciones, son más un hámster que un golden retriever.

Los humanos comprenden inmediatamente que los perros de las praderas no son perros en el sentido habitual. La IA tiene problemas.

Incluso cuando somos pequeños, tenemos una asombrosa habilidad para convertir en conceptos lo que aprendemos sobre el mundo. Con sólo unos pocos ejemplos, nos hacemos una idea de lo que hace a un “perro” o de lo que significa “saltar” o “saltar”. Estos conceptos se mezclan y combinan sin esfuerzo dentro de nuestras cabezas, lo que da como resultado que un niño pequeño señale a un perro de la pradera y grite: "¡Pero eso no es un perro!"

La semana pasada, un equipo de la Universidad de Nueva York creó un modelo de IA que imita la capacidad de un niño pequeño para generalizar el aprendizaje del lenguaje. En pocas palabras, la generalización es una especie de pensamiento flexible que nos permite utilizar palabras recién aprendidas en nuevos contextos, como un milenario mayor que lucha por ponerse al día con la jerga de la Generación Z.

Cuando se comparó con humanos adultos en una tarea de lenguaje para generalizar, el modelo igualó su desempeño. También superó a GPT-4, el algoritmo de inteligencia artificial detrás de ChatGPT.

La salsa secreta era sorprendentemente humana. La nueva red neuronal fue entrenada para reproducir errores de los resultados de pruebas humanas y aprender de ellos.

"Durante 35 años, los investigadores en ciencias cognitivas, inteligencia artificial, lingüística y filosofía han estado debatiendo si las redes neuronales pueden lograr una generalización sistemática similar a la humana". dijo autor del estudio, el Dr. Brenden Lake. "Hemos demostrado, por primera vez, que una red neuronal genérica puede imitar o superar la generalización sistemática humana en una comparación directa".

Una pelea inteligente

La mayoría de los modelos de IA se basan en el aprendizaje profundo, un método basado libremente en el cerebro.

La idea es sencilla. Las neuronas artificiales se interconectan para formar redes neuronales. Al cambiar la intensidad de las conexiones entre las neuronas artificiales, las redes neuronales pueden aprender muchas tareas, como conducir taxis autónomos o examinar sustancias químicas para el descubrimiento de fármacos.

Sin embargo, las redes neuronales son aún más poderosas en el cerebro. Las conexiones se adaptan rápidamente a entornos en constante cambio y unen conceptos a partir de experiencias y recuerdos individuales. Como ejemplo, podemos identificar fácilmente un burro salvaje que cruza la calle y saber cuándo pisar el freno. Un coche robot puede fallar sin un entrenamiento específico para burros salvajes.

El problema es la generalización. Por ejemplo: ¿Qué es una carretera? ¿Es una carretera pavimentada, un camino de tierra accidentado o una ruta de senderismo rodeada de arbustos?

En la década de 1980, los científicos cognitivos Jerry Fodor y Zenon Pylyshyn propusieron que las redes neuronales artificiales no son capaces de comprender conceptos (como un "camino"), y mucho menos utilizarlos de manera flexible para navegar por nuevos escenarios.

Los científicos detrás del nuevo estudio aceptaron el desafío. ¿Su solución? Una red neuronal artificial que se adapta a las reacciones humanas.

hombre con maquina

Como punto de partida, el equipo primero pidió a 25 personas que aprendieran un nuevo idioma inventado. En comparación con el uso de uno existente, un lenguaje de fantasía evita sesgos al evaluar a participantes humanos.

La investigación fue "más allá del trabajo clásico que se basaba principalmente en experimentos mentales" para aprovechar las capacidades lingüísticas humanas, explicaron los autores en su estudio. La prueba difería de configuraciones anteriores que se centraban principalmente en la gramática. En cambio, el objetivo era que los participantes comprendieran y generalizaran en el lenguaje inventado únicamente a partir de palabras.

Como si estuvieran enseñando un nuevo idioma, el equipo comenzó con un montón de palabras simples y sin sentido: “dax”, “lug”, “wif” o “zup”. Estos se traducen en acciones básicas como saltar o saltar.

Luego, el equipo introdujo palabras más complejas, “blicket” o “kiki”, que pueden usarse para unir las palabras anteriores en oraciones y, a su vez, conceptos y nociones. Estas palabras abstractas, cuando se usan con palabras simples, pueden significar "saltar hacia atrás" o "saltar tres veces".

Los voluntarios fueron entrenados para asociar cada palabra con un color. Por ejemplo, "dax" era rojo, "lug" era azul. Los colores ayudaron a los voluntarios a aprender las reglas del nuevo idioma. Una combinación de palabras resultó en tres círculos rojos, otro destellaba en azul. Pero lo más importante es que algunas palabras, como “fep”, se iluminaron independientemente de otras palabras combinadas con ellas, lo que sugiere una base gramatical en el lenguaje de fantasía.

Después de 14 rondas de aprendizaje, los voluntarios fueron desafiados con 10 preguntas sobre el significado de las palabras inventadas y se les pidió que generalizaran a preguntas más complejas. Para cada tarea, los participantes debían seleccionar los círculos de colores correspondientes y colocarlos en el orden adecuado para formar una frase.

Se destacaron. Los humanos eligieron los colores correctos aproximadamente el 80 por ciento de las veces. Muchos de los errores fueron problemas de traducción "uno a uno", que tradujeron una palabra a su significado básico sin considerar el contexto más amplio.

Un segundo equipo de 29 personas más también aprendió rápidamente el lenguaje de fantasía, traduciendo combinaciones como “fep fep” sin problemas.

Idioma aprendido

Para construir el modelo de IA, el equipo se centró en varios criterios.

Primero, tenía que generalizar a partir de unos pocos casos de aprendizaje. En segundo lugar, necesitaba responder como humanos a los errores cuando se le planteaban tareas similares. Finalmente, el modelo tuvo que aprender e incorporar fácilmente palabras a su vocabulario, formando una especie de “concepto” para cada palabra.

Para ello, el equipo utilizó metaaprendizaje para la composicionalidad. Sí, suena como el superpoder de un villano. Pero lo que hace es relativamente simple.

El equipo asignó a una red neuronal artificial tareas similares a las que se les encomendaron a los voluntarios humanos. La red se optimiza a medida que los "aumentos" dinámicos cambian su función general, lo que le permite aprender mejor sobre la marcha en comparación con los enfoques estándar de IA, que se basan en conjuntos de datos estáticos. Normalmente, estas máquinas procesan un problema utilizando un conjunto de ejemplos de estudio. Piense en ello como descifrar el código Morse. Reciben un mensaje (puntos y rayas) y traducen la secuencia al inglés normal.

Pero ¿qué pasa si el idioma no es el inglés y tiene sus propios conceptos y reglas? Un conjunto de entrenamiento estático fallaría al creador de palabras de IA.

Aquí, el equipo guió a la IA a través de un "flujo dinámico" de tareas que requerían que la máquina combinara conceptos. En un ejemplo, se le pidió que se saltara dos veces. El modelo de IA aprendió de forma independiente la noción de "saltar" (a diferencia de "saltar") y que dos veces significa "dos veces". Luego, estos aprendizajes se transmitieron a través de la red neuronal y el comportamiento resultante se comparó con la instrucción. Si, por ejemplo, el modelo de IA se saltó tres veces, los resultados proporcionaron retroalimentación para ayudar a impulsar el modelo de IA hacia la respuesta correcta. A través de la repetición, eventualmente aprendió a asociar diferentes conceptos.

Luego vino el segundo paso. El equipo añadió una nueva palabra, digamos "de puntillas", en un contexto que el modelo de IA ya había aprendido, como movimiento, y luego le pidió que "caminara de puntillas hacia atrás". El modelo ahora tenía que aprender a combinar "puntillas" en su vocabulario y conceptos de movimiento existentes.

Para entrenar aún más la IA, el equipo le proporcionó datos de los participantes humanos para que pudiera aprender de los errores humanos. Cuando se le planteó nuevos acertijos, la IA imitó las respuestas humanas en el 65 por ciento de las pruebas, superando a modelos de IA similares y, en algunos casos, superando a los participantes humanos.

El modelo plantea preguntas naturales para el futuro de la IA del lenguaje, escribió el equipo. En lugar de enseñar gramática a los modelos de IA con ejemplos, darles un alcance más amplio podría ayudarlos a imitar la capacidad de los niños para comprender idiomas combinando diferentes componentes lingüísticos.

El uso de la IA puede ayudarnos a comprender cómo los humanos han aprendido a combinar palabras en frases, oraciones, poesía y ensayos. Los sistemas también podrían conducir a conocimientos sobre cómo los niños construyen su vocabulario y, a su vez, formar una comprensión visceral de conceptos y conocimientos sobre el mundo. Dejando a un lado el lenguaje, el nuevo modelo de IA también podría ayudar a las máquinas a analizar otros campos, como las matemáticas, la lógica e incluso, en un círculo completo, la programación informática.

“No es magia, es práctica. Al igual que un niño también practica cuando aprende su lengua materna, los modelos mejoran sus habilidades de composición a través de una serie de tareas de aprendizaje de composición”, dijo Lake. les dijo a Naturaleza.

Crédito de la imagen: Andreas Fickl / Unsplash 

punto_img

Información más reciente

punto_img