Logotipo de Zephyrnet

La IA ayuda a una mujer paralizada a hablar a través de un avatar

Fecha:

IA en resumen Los investigadores han ayudado a una mujer paralizada por un derrame cerebral a hablar a través de un avatar digital, gracias a algoritmos de inteligencia artificial que analizan sus ondas cerebrales y las traducen en habla y movimientos simulados.

La paciente, identificada como “Ann”, puede mover los músculos faciales pero no puede hablar.

Los científicos informáticos entrenaron una red neuronal recurrente para mapear las señales de su cerebro en 39 fonemas diferentes: las unidades de sonido que ensamblamos en palabras mientras hablamos. Las ondas cerebrales de Anna se midieron utilizando una interfaz cerebro-computadora. Después del entrenamiento, la modelo aprendió a decodificar sus pensamientos en fonemas que luego eran pronunciados por un avatar digital en pantalla.

Puedes ver cómo funciona en el vídeo a continuación.

Youtube Video

La tecnología fue desarrollada por un equipo de científicos informáticos de la Universidad de California en San Francisco y la Universidad de California en Berkeley, que esperan que conduzca a la creación de un dispositivo aprobado por los reguladores que ayudará a las personas paralizadas a expresarse.

Ann puede hablar a través de su avatar digital a una velocidad de 62 palabras por minuto (aproximadamente un 40 por ciento más rápido que el habla típica) con una tasa de error de palabras del 23.8 por ciento en el vocabulario de 125,000 palabras del sistema. Los detalles de la investigación han sido publicado en un papel en Naturaleza

“Cuando estaba en el hospital de rehabilitación, el logopeda no sabía qué hacer conmigo” dijo Ana. “Ser parte de este estudio me ha dado un sentido de propósito. Siento que estoy contribuyendo a la sociedad. Siento que tengo un trabajo otra vez. Es sorprendente haber vivido tanto tiempo; ¡Este estudio me ha permitido vivir realmente mientras estoy vivo!”

Google llega a un acuerdo para crear música generada por IA

Los derechos de autor son un gran problema al que se enfrentan los servicios de IA generativa, y los desarrolladores son criticados y demandados por extraer grandes cantidades de material extraído de Internet para entrenar grandes modelos de lenguaje sin pedir permiso ni ofrecer pago. Ahora, editores y escritores están intentando luchar contra el uso de su trabajo por parte de la IA sin crédito ni compensación.

La música, sin embargo, es una industria mucho más regulada. Las compañías discográficas bloquean los derechos de las canciones y son notoriamente litigiosas. Si alguien quiere entrenar modelos sobre música popular para hacer mejores jingles generados por IA, será difícil evitar el pago de regalías.

Por lo tanto, la unidad de negocios de Google, YouTube, se ha asociado con Universal Music Group para desarrollar de manera responsable una IA que genere música.

"Juntos, podemos adoptar esta nueva tecnología de una manera que apoye a los artistas, compositores, productores y a la industria en su conjunto, mientras generamos valor para los fanáticos y superamos los límites de lo que es creativamente posible", dijo YouTube. dijo en un blog. 

Sin embargo, Google no parece adoptar el mismo enfoque cuidadoso o mesurado cuando se trata de texto. El mes pasado actualizó su políticas de privacidad afirmando que utiliza "información disponible públicamente para ayudar a entrenar los modelos de inteligencia artificial de Google y crear productos y funciones como las capacidades de Google Translate, Bard y Cloud AI".

Los medios de comunicación están bloqueando el rastreador de texto de OpenAI

Los principales editores como CNN, Reuters, el Chicago Tribune y más han bloqueado el GPTBot de OpenAI para que no pueda extraer texto de sus páginas web.

OpenAI utiliza un robot rastreador para recopilar datos de la Internet pública para entrenar sus grandes modelos de lenguaje. Pero algunos editores de noticias, entre ellos la Australian Broadcasting Corporation y la emisora ​​del país Tiempos de Camberra y del Heraldo de Newcastle, han realizado cambios en sus sitios web robot.txt archivo para evitar que los robots rastreadores accedan a su contenido, El guardián informó por primera vez.

Al bloquear el rastreador GPTBot, los editores pueden impedir que OpenAI recopile texto sin permiso. La startup ha llegado recientemente. bajo fuego de los autores para entrenar sus modelos en sus libros.

Ahora los medios de comunicación también están empezando a contraatacar. The New York Times También actualizó recientemente sus términos de servicio indicando que su contenido no se puede extraer para entrenar modelos de IA sin el consentimiento explícito por escrito.

El mes pasado, OpenAI anunció que había firmado un acuerdo de licencia con Associated Press para utilizar sus archivos que datan de 1985. Los artículos de noticias son importantes para desarrollar un modelo que tenga conocimiento actualizado, y OpenAI puede que en el futuro deba pagar a los editores. para acceder a su contenido si más de ellos bloquean el GPTBot. ®

punto_img

Información más reciente

punto_img