Logotipo de Zephyrnet

Esta gorra de lectura mental puede traducir pensamientos en texto gracias a la IA

Fecha:

Con una gorra tachonada de electrodos y erizada de cables, un joven lee en silencio una frase en su cabeza. Momentos después, una voz parecida a la de Siri irrumpe: intentando traducir sus pensamientos en texto, "Sí, me gustaría un plato de sopa de pollo, por favor". Es el último ejemplo de computadoras que traducen los pensamientos de una persona en palabras y oraciones.

Anteriormente, los investigadores habían utilizado implantes colocados quirúrgicamente en el cerebro o máquinas voluminosas y costosas para traducir la actividad cerebral en texto. El nuevo enfoque, presentado en la conferencia NeurIPS de esta semana por investigadores de la Universidad Tecnológica de Sydney, es impresionante por el uso de un límite de EEG no invasivo y el potencial de generalizarse más allá de una o dos personas.

El equipo construyó un modelo de inteligencia artificial llamado DeWave que se entrena en la actividad cerebral y el lenguaje y lo vinculó a un modelo de lenguaje grande (la tecnología detrás de ChatGPT) para ayudar a convertir la actividad cerebral en palabras. en un preimpresión publicada en arXiv, el modelo superó las máximas calificaciones anteriores en traducción de pensamiento a texto EEG con una precisión de aproximadamente el 40 por ciento. Chin-Teng Lin, autor correspondiente del artículo, le dijo a MSN Más recientemente aumentaron la precisión al 60 por ciento. Los resultados aún están siendo revisados ​​por pares.

Aunque queda un largo camino por recorrer en términos de confiabilidad, muestra avances en métodos no invasivos de lectura y traducción de pensamientos al lenguaje. El equipo cree que su trabajo podría dar voz a aquellos que ya no pueden comunicarse debido a una lesión o enfermedad o ser utilizado para dirigir máquinas, como robots andantes o brazos robóticos, solo con pensamientos.

Adivina lo que estoy pensando

Quizás recuerde los titulares sobre máquinas de “lectura de mentes” que traducen pensamientos a texto a alta velocidad. Esto se debe a que tales esfuerzos no son nada nuevos.

A principios de este año, investigadores de Stanford trabajo descrito con un paciente, Pat Bennett, que había perdido la capacidad de hablar debido a la ELA. Después de implantar cuatro sensores en dos partes de su cerebro y de un extenso entrenamiento, Bennett pudo comunicarse mediante sus pensamientos. convertido a texto a una velocidad de 62 palabras por minuto—una mejora con respecto al récord del mismo equipo en 2021 de 18 palabras por minuto.

Es un resultado sorprendente, pero los implantes cerebrales pueden ser riesgosos. A los científicos les encantaría obtener un resultado similar sin cirugía.

In otro estudio este año, investigadores de la Universidad de Texas en Austin recurrieron a una tecnología de escaneo cerebral llamada fMRI. En el estudio, los pacientes tenían que permanecer muy quietos en una máquina que registraba el flujo sanguíneo en sus cerebros mientras escuchaban historias. Después de usar estos datos para entrenar un algoritmo, basado en parte en el ancestro de ChatGPT, GPT-1, el equipo usó el sistema para adivinar lo que los participantes escuchaban en función de su actividad cerebral.

La precisión del sistema no fue perfecta, requirió una gran personalización para cada participante y las máquinas de resonancia magnética funcional son voluminosas y costosas. Aún así, el estudio sirvió como prueba de concepto de que los pensamientos se pueden decodificar de forma no invasiva, y lo último en inteligencia artificial puede ayudar a que esto suceda.

El Sombrero Seleccionador

In Harry Potter, los estudiantes son clasificados en las escuelas mediante un sombrero mágico que lee la mente. Los muggles recurrimos a gorros de baño de aspecto extraño, perforados por cables y electrodos. Conocidos como gorros de electroencefalógrafo (EEG), estos dispositivos leen y registran la actividad eléctrica en nuestro cerebro. A diferencia de los implantes cerebrales, no requieren cirugía pero son considerablemente menos precisos. El desafío, entonces, es separar la señal del ruido para obtener un resultado útil.

En el nuevo estudio, el equipo utilizó dos conjuntos de datos que contenían registros de seguimiento ocular y EEG de 12 y 18 personas, respectivamente, mientras leían texto. Los datos de seguimiento ocular ayudaron al sistema a dividir la actividad cerebral por palabra. Es decir, cuando los ojos de una persona pasan de una palabra a la siguiente, significa que debería haber una pausa entre la actividad cerebral asociada con esa palabra y la actividad que debería correlacionarse con la siguiente.

Luego entrenaron a DeWave con estos datos y, con el tiempo, el algoritmo aprendió a asociar patrones particulares de ondas cerebrales con palabras. Finalmente, con la ayuda de un modelo de lenguaje grande previamente entrenado llamado BART, ajustado para comprender el resultado único del modelo, las asociaciones de ondas cerebrales y palabras del algoritmo se tradujeron nuevamente en oraciones.

En las pruebas, DeWave superó a los mejores algoritmos de la categoría tanto en la traducción de ondas cerebrales sin procesar como en ondas cerebrales divididas por palabra. Estos últimos eran más precisos, pero todavía estaban muy por detrás de la traducción entre idiomas (como el inglés y el francés) y el reconocimiento de voz. También encontraron que el algoritmo funcionaba de manera similar entre los participantes. Los experimentos anteriores tendían a informar resultados para una sola persona o requerían una personalización extrema.

El equipo dice que la investigación es una prueba más de que los modelos de lenguaje grandes pueden ayudar a avanzar en los sistemas de conversión de cerebro a texto. Aunque utilizaron un algoritmo relativamente antiguo en el estudio oficial, en material complementario incluyeron resultados de modelos más grandes, incluido el algoritmo Llama original de Meta. Curiosamente, los algoritmos más grandes no mejoraron mucho los resultados.

"Esto subraya la complejidad del problema y los desafíos de unir las actividades cerebrales con los LLM", escribieron los autores, pidiendo una investigación más matizada en el futuro. Aun así, el equipo espera poder impulsar su propio sistema aún más, quizás hasta un 90 por ciento de precisión.

El trabajo muestra avances en el campo.

"La gente ha querido convertir el EEG en texto durante mucho tiempo y el modelo del equipo está mostrando una notable exactitud", dijo Craig Jin de la Universidad de Sydney. MSN. "Hace varios años, las conversiones de EEG a texto eran una completa y absoluta tontería".

Crédito de la imagen: Universidad de Tecnología de Sydney

punto_img

Información más reciente

punto_img