Logotipo de Zephyrnet

Aún no has visto nada

Fecha:

imagen

La estimación de la pose humana busca predecir la ubicación de las articulaciones humanas u otras partes del cuerpo en un espacio tridimensional. Esto tiene aplicaciones importantes en la realidad virtual, el diseño de interfaces humano-computadora y, en términos más generales, en la enseñanza a las computadoras para que tengan una comprensión más natural del comportamiento humano. A pesar de la utilidad de esta tecnología, todavía existen muchos sistemas en competencia, cada uno con importantes inconvenientes que impiden su adopción generalizada. Un enfoque común utiliza etiquetas que se adhieren a puntos clave del cuerpo, junto con anclas que se colocan alrededor del perímetro del área. Los anclajes usan señales inalámbricas para rastrear con precisión las etiquetas; sin embargo, esto requiere una configuración significativa y solo se puede usar dentro del perímetro de los anclajes. Claramente, esta no es exactamente una solución portátil para usar en cualquier lugar.

Existen muchas soluciones alternativas que usan cámaras, acelerómetros u otros sensores para estimar las posturas del cuerpo, pero todas están plagadas de problemas de impracticabilidad, inexactitudes y altos costos. Para que esta tecnología sea realmente relevante en la vida diaria de las personas, debe volverse transparente y portátil. Lo ideal sería integrarlo en un dispositivo que ya llevamos con nosotros todo el tiempo, como un smartphone o smartwatch. Eso suena como un gran salto considerando cómo se ven la mayoría de los sistemas de estimación de poses hoy en día, pero un equipo de ingenieros de la Universidad de Cornell ha diseñado un pequeño dispositivo llamado BodyTrak eso puede hacerlo posible. BodyTrak utiliza una sola cámara montada en la muñeca para estimar la postura de todo el cuerpo, incluso las áreas no visibles, con un alto grado de precisión.

La cámara del tamaño de una moneda de diez centavos que se lleva en la muñeca envía las imágenes capturadas a una red neuronal profunda para su procesamiento. El modelo toma esa imagen parcial del cuerpo y completa los detalles; en la actualidad, puede reconocer un total de catorce articulaciones en los brazos, las piernas, el torso y la cabeza en un espacio tridimensional en tiempo real. Se realizó un pequeño estudio con nueve participantes para validar el sistema BodyTrak. Se les dio la cámara montada en la muñeca y luego se les pidió que realizaran una variedad de actividades, como caminar, sentarse o hacer ejercicio. Estas actividades se llevaron a cabo en diferentes situaciones: en interiores, al aire libre y con ropa diferente para mostrar la portabilidad y la practicidad del sistema. Al comparar los resultados pronosticados con las mediciones reales del terreno, se encontró que las ubicaciones pronosticadas de las catorce uniones se desviaban de la realidad en un promedio de solo 6.9 centímetros. Esto es bastante impresionante teniendo en cuenta que la cámara ni siquiera tiene una vista de todas las articulaciones para las que está prediciendo ubicaciones.

La plataforma natural para implementar BodyTrak es un reloj inteligente, ya que ya se usan en la muñeca. Dichos dispositivos comúnmente ya tienen una cámara, lo que significa que el algoritmo podría ejecutarse potencialmente sin ningún cambio en el diseño del hardware existente. Sin embargo, esto requerirá un poco de trabajo para que suceda. El algoritmo es computacionalmente intensivo, y ejecutarlo agotaría la batería del reloj muy rápidamente, si el reloj tuviera suficientes recursos para ejecutar BodyTrak en primer lugar. Pero entre las optimizaciones de software y los avances en la tecnología de hardware, no debería pasar mucho tiempo antes de que esto sea posible.

punto_img

Información más reciente

punto_img