Logotipo de Zephyrnet

Este robot predice cuándo sonreirás y luego te devuelve la sonrisa justo en el momento justo

Fecha:

Los clubes de comedia son mis salidas favoritas de fin de semana. Reúne a algunos amigos, toma unas copas y, cuando a todos nos llega una broma, hay un momento mágico en el que nuestras miradas se encuentran y compartimos una sonrisa descarada.

Sonreír puede convertir a extraños en amigos más queridos. Estimula conocer-lindo Hollywood trama, repara relaciones rotas y está indisolublemente ligado a sentimientos cálidos y confusos de alegría.

Al menos para la gente. Para los robots, sus intentos de lograr sonrisas genuinas a menudo caen en el valle inquietante: lo suficientemente cerca como para parecerse a un humano, pero causando un toque de inquietud. Lógicamente, sabes lo que están intentando hacer. Pero las intuiciones te dicen que algo no está bien.

Puede que sea por culpa del tiempo. Los robots están entrenados para imitar la expresión facial de una sonrisa. Pero no saben cuándo mostrar la sonrisa. Cuando los humanos nos conectamos, realmente sonreímos juntos sin ninguna planificación consciente. Los robots se toman tiempo para analizar las expresiones faciales de una persona y reproducir una sonrisa. A un ser humano, incluso un milisegundo de retraso le eriza el vello de la nuca; como en una película de terror, algo se siente manipulador y mal.

La semana pasada, un equipo de la Universidad de Columbia mostró un algoritmo que enseña a los robots a compartir una sonrisa con sus operadores humanos. La IA analiza ligeros cambios faciales para predecir las expresiones de sus operadores unos 800 milisegundos antes de que sucedan, tiempo suficiente para que el robot le devuelva la sonrisa.

El equipo entrenó un suave rostro humanoide robótico llamado Emo para anticipar e igualar las expresiones de su compañero humano. Con una cara de silicona teñida de azul, Emo parece un extraterrestre de ciencia ficción de los años 60. Pero sonrió fácilmente junto con su compañero humano en la misma longitud de onda "emocional".

Los robots humanoides suelen ser torpes y forzados cuando se comunican con los humanos, escribí Dra. Rachael Jack de la Universidad de Glasgow, que no participó en el estudio. ChatGPT y otros grandes algoritmos lingüísticos ya pueden hacer que el habla de una IA suene humana, pero las comunicaciones no verbales son difíciles de replicar.

Programar habilidades sociales (al menos para la expresión facial) en robots físicos es un primer paso para ayudar a “los robots sociales a unirse al mundo social humano”, escribió.

Bajo el capó

Desde robotaxis hasta servidores automáticos que te traen comida y bebida, robots autónomos están entrando cada vez más en nuestras vidas.

En Londres, Nueva York, Munich y Seúl, los autónomos los robots recorra aeropuertos caóticos ofreciendo asistencia al cliente: registrarse, encontrar una puerta de embarque o recuperar equipaje perdido. En Singapur, varios robots de dos metros de altura con visión de 360 ​​grados recorrer un aeropuerto señalar posibles problemas de seguridad. Durante la pandemia, perros robot distanciamiento social impuesto.

Pero los robots pueden hacer más. Para trabajos peligrosos, como limpiar los restos de casas o puentes destruidos, podrían ser pioneros en los esfuerzos de rescate y aumentar la seguridad de los socorristas. Con una población mundial cada vez más envejecida, podrían ayudar a las enfermeras a brindar apoyo a las personas mayores.

Current robots humanoides son caricaturescamente adorables. Pero el ingrediente principal para que los robots entren en nuestro mundo es la confianza. A medida que los científicos construyen robots con rostros cada vez más parecidos a los humanos, queremos que sus expresiones coincidan con nuestras expectativas. No se trata sólo de imitar una expresión facial. Una sonrisa genuina y compartida de "sí, lo sé" sobre un chiste digno de vergüenza forma un vínculo.

Las comunicaciones no verbales (expresiones, gestos con las manos, posturas corporales) son herramientas que utilizamos para expresarnos. Con ChatGPT y otros IA generativa, las máquinas ya pueden “comunicarse por vídeo y verbalmente” dijo autor del estudio, el Dr. Hod Lipson, para Ciencia:.

Pero cuando se trata del mundo real, donde una mirada, un guiño y una sonrisa pueden marcar la diferencia, es "un canal que falta en este momento", dijo Lipson. “Sonreír en el momento equivocado puede resultar contraproducente. [Si llega incluso unos milisegundos demasiado tarde], tal vez se sienta como si estuvieras complaciendo”.

Say Cheese

Para que los robots realicen acciones no verbales, el equipo se centró en un aspecto: una sonrisa compartida. Estudios anteriores han preprogramado robots para imitar una sonrisa. Pero como no son espontáneos, provocan un ligero pero notable retraso y hacen que la sonrisa parezca falsa.

"Hay muchas cosas que intervienen en la comunicación no verbal" que son difíciles de cuantificar, dijo Lipson. "La razón por la que necesitamos decir 'queso' cuando tomamos una foto es porque sonreír cuando se nos pide es bastante difícil".

El nuevo estudio se centró en el tiempo.

El equipo diseñó un algoritmo que anticipa la sonrisa de una persona y hace que una cara animatrónica de apariencia humana sonría al mismo tiempo. Llamada Emo, la cara robótica tiene 26 engranajes (piense en músculos artificiales) envueltos en una “piel” de silicona elástica. Cada engranaje está unido al “esqueleto” robótico principal con imanes para mover las cejas, los ojos, la boca y el cuello. Los ojos de Emo tienen cámaras incorporadas para registrar su entorno y controlar los movimientos del globo ocular y el parpadeo.

Por sí solo, Emo puede rastrear sus propias expresiones faciales. El objetivo del nuevo estudio era ayudarlo a interpretar las emociones de los demás. El equipo utilizó un truco que cualquier adolescente introvertido podría conocer: le pidieron a Emo que se mirara en el espejo para aprender a controlar sus engranajes y formar una expresión facial perfecta, como una sonrisa. El robot aprendió gradualmente a unir sus expresiones con comandos motores, por ejemplo, "levanta las mejillas". Luego, el equipo eliminó cualquier programación que pudiera estirar demasiado la cara, dañando la piel de silicona del robot.

“Resulta que... [hacer] una cara de robot que pudiera sonreír fue increíblemente desafiante desde un punto de vista mecánico. Es más difícil que hacer una mano robótica”, afirmó Lipson. “Somos muy buenos detectando sonrisas no auténticas. Así que somos muy sensibles a eso”.

Para contrarrestar el valle inquietante, el equipo entrenó a Emo para predecir movimientos faciales usando videos de humanos riendo, sorprendidos, frunciendo el ceño, llorando y haciendo otras expresiones. Las emociones son universales: cuando sonríes, las comisuras de tu boca se curvan formando una luna creciente. Cuando lloras, las cejas se fruncen.

La IA analizó los movimientos faciales de cada escena cuadro por cuadro. Al medir las distancias entre los ojos, la boca y otros “puntos de referencia faciales”, encontró signos reveladores que corresponden a una emoción particular; por ejemplo, un movimiento hacia arriba en la comisura de la boca sugiere un atisbo de sonrisa, mientras que un movimiento hacia abajo puede fruncir el ceño.

Una vez entrenada, la IA tardó menos de un segundo en reconocer estos puntos de referencia faciales. Al activar Emo, la cara del robot podía anticipar una sonrisa basada en las interacciones humanas en un segundo, de modo que sonreía con su participante.

Para ser claros, la IA no "siente". Más bien, se comporta como lo haría un humano cuando se ríe de un comediante divertido con una sonrisa aparentemente genuina.

Las expresiones faciales no son las únicas señales que notamos al interactuar con las personas. Los sutiles movimientos de cabeza, asentimientos, cejas levantadas o gestos con las manos dejan una huella. Independientemente de la cultura, los “ums”, los “ahhs” y los “likes” (o sus equivalentes) se integran en las interacciones cotidianas. Por ahora, Emo es como un bebé que aprendió a sonreír. Todavía no comprende otros contextos.

"Queda mucho por hacer" dijo Lipson. Apenas estamos arañando la superficie de las comunicaciones no verbales para la IA. Pero "si crees que interactuar con ChatGPT es interesante, espera hasta que estas cosas se vuelvan físicas y todas las apuestas estarán canceladas".

Crédito de la imagen: Yuhang Hu, Ingeniería de Columbia a través de YouTube

punto_img

Información más reciente

punto_img