Logotipo de Zephyrnet

Los evaluadores de Roomba encontraron imágenes confidenciales cargadas en las redes sociales

Fecha:

Cargando reproductor de audio...

Las aspiradoras robóticas siempre me han parecido pequeños útiles y amigables, pero tal vez sea porque no las he usado mucho. Me encanta la idea de un tipo pequeño que anda tropezando con cosas y limpiando mi casa. La idea parece menos encantadora ahora que descubrí que pueden tomarte fotos en el baño y luego subirlas a las redes sociales sin que lo sepas. Ese es un nivel de acoso extraño que no quiero de mi sirviente mecánico.

Eileen Guo en MIT Technology Review (se abre en una pestaña nueva) ha estado investigando cómo esas fotografías de las aspiradoras Roomba de iRobot, con rostros claramente visibles de los usuarios, hicieron su camino a las redes sociales (se abre en una pestaña nueva). Las imágenes incluyen tomas muy sinceras de personas haciendo cosas personales en su hogar, incluidas imágenes de mujeres y niños en el baño. Guo también hizo una excelente Hilo de Twitter (se abre en una pestaña nueva) con más explicaciones y enlaces útiles.

Las imágenes sensibles se toman claramente desde la posición del robot aspirador, que lo habría hecho con el interés de recopilar datos. Un usuario afectado habló con MIT Technology Review y explicó que era un probador de productos para la serie iRobot Roomba J, lo que significaba dejar que el robot deambulara por la casa recopilando información con la esperanza de mejorar el producto.  

Esperar que su información se envíe de regreso a una empresa segura que busca entrenar su IA de limpieza es una cosa, y descubrir que esas imágenes también se cargan en las redes sociales es otra. MIT Technology Review descubrió que cuando iRobot recopila todos esos datos, los envía a las empresas de anotación de datos. Una de esas empresas fue Scale AI, que contrata a contratistas remotos para ayudar a evaluar los datos sin censura.

Esto hizo que los trabajadores compartieran imágenes entre ellos en las redes sociales, lo que, por supuesto, llegó al resto del mundo. Muchos usuarios sintieron que esto es una violación de su confianza, si no de su contrato como probadores. Hay al menos 15 imágenes que han aparecido, pero es probable que se compartan muchas más. Apropiadamente, iRobot ha dejado de funcionar con Scale AI.

Desafortunadamente, iRobot no está haciendo mucho más que eso para ayudar a los afectados o recuperar la confianza. El CEO Colin Angle respondió al informe de MIT Technology Review en un Publicación de LinkedIn (se abre en una pestaña nueva) que no reconoció ningún problema o peligro en cuanto a que se proporcionaran estas imágenes sin censura a los trabajadores temporales. Con poca responsabilidad o recurso parece una idea peligrosa.

Angle pasa la primera parte de la publicación de Linked In hablando de lo geniales que son los Roombas de la compañía y atribuye esto a los datos recopilados de probadores como estos, luego los arroja debajo del autobús, diciendo que no son consumidores y han dado su consentimiento para tener sus datos recogidos.

Es bueno saber que esto no está sucediendo con los productos iRobot de consumo regular, pero la falta de responsabilidad ante los probadores no me hace querer salir y tomar un Roomba en el corto plazo.

La publicación de LinkedIn también reprende a MIT Technology Review por compartir versiones censuradas de las imágenes en su artículo, lo que no tiene mucho sentido dado que iRobot ya compartió voluntariamente imágenes sin censura con extraños que terminaron en línea.

punto_img

Información más reciente

punto_img