Logotipo de Zephyrnet

Google Brain, Intel y UC Berkeley entrenan IA de cirugía robótica con videos

Fecha:

Investigadores de Google Brain, Intel AI Lab y UC Berkeley han creado Movimiento2Vec, un modelo de IA capaz de aprender cómo realizar tareas asociadas con la cirugía robótica, como suturar, pasar agujas, insertar agujas y hacer nudos, a partir del entrenamiento con video de cirugía. Para probar los resultados, el modelo se aplicó con un robot da Vinci de dos brazos pasando una aguja a través de la tela en un laboratorio.

Motion2Vec es un algoritmo de aprendizaje de representación entrenado con aprendizaje semisupervisado, y sigue la tradición de modelos con nombres similares como Word2Vec y Grasp2Vec, entrenados con el conocimiento que se encuentra en un espacio integrado. Los investigadores de UC Berkeley usaron previamente videos de YouTube para entrenar a los agentes para que bailen, hagan volteretas hacia atrás y realicen una variedad de acrobacias, y Google ha usado videos para entrenar algoritmos para hacer cosas como generar video realista or predecir la profundidad usando videos de desafío de maniquí de YouTube.

Los investigadores dicen que su trabajo muestra que la robótica de video utilizada en la cirugía se puede mejorar al proporcionarles videos de demostración de expertos para enseñar nuevas habilidades de manipulación robótica. "Los resultados sugieren una mejora del rendimiento en la segmentación sobre las líneas de base de última generación, al tiempo que introducen la imitación de poses en este conjunto de datos con un error de cm de 0:94 en la posición por observación, respectivamente", se lee en el documento.

[Contenido incrustado]

VB Transform 2020 en línea - 15-17 de julio. Únase a los principales ejecutivos de IA: Regístrese para la transmisión en vivo gratis.

Los detalles sobre Motion2Vec fueron publicado la semana pasada en el repositorio de preprints arXiv y presentado en la Conferencia Internacional IEEE sobre Robótica y Automatización (ICRA). Videos de solo ocho cirujanos humanos controlando robots da Vinci desde el Conjunto de datos JIGSAWS enseñó al algoritmo representaciones centradas en el movimiento de las habilidades de manipulación a través del aprendizaje por imitación. JIGSAWS, que significa JHU-ISI Gesture and Skill Assessment Working Set, reúne videos de la Universidad Johns Hopkins (JHU) e Intuitive Surgery, Inc (ISI).

“Utilizamos un total de 78 demostraciones del conjunto de datos de sutura”, se lee en el documento. “Sin embargo, el estilo de sutura es significativamente diferente entre cada cirujano”.

Otros trabajos notables de ICRA, que se llevaron a cabo en línea en lugar de en persona en París, incluyen optimización de la marcha para exoesqueletos de la parte inferior del cuerpo y Laboratorio de Stanford que prevé el uso de IA para aprovechar el transporte público y ampliar las rutas de entrega para cientos de drones.

Fuente: http://feedproxy.google.com/~r/venturebeat/SZYF/~3/PFCVeRou_PY/

punto_img

Información más reciente

punto_img