Logotipo de Zephyrnet

Google Photos AI no puede identificar con precisión a los gorilas

Fecha:

Google Photos AI no puede identificar con precisión a los gorilas: ¿qué salió mal?

Google Photos es una popular plataforma de almacenamiento y uso compartido de fotos que utiliza inteligencia artificial (IA) para categorizar y etiquetar automáticamente las imágenes. Sin embargo, en 2015, la plataforma enfrentó una gran reacción violenta cuando se descubrió que su IA no podía identificar con precisión a los gorilas. Este incidente planteó preguntas sobre las limitaciones de la IA y los posibles sesgos que se pueden incorporar en estos sistemas.

¿Que pasó?

El incidente ocurrió cuando un usuario de Google Fotos subió una serie de fotos que incluían imágenes de una pareja negra y su amigo. El sistema de inteligencia artificial etiquetó automáticamente las fotos con etiquetas como "personas", "barba" y "sonrisa". Sin embargo, cuando el usuario buscó "gorila", el sistema de IA devolvió fotos de la pareja negra con las mismas etiquetas.

Este error fue causado por una falla en el algoritmo de reconocimiento de imágenes del sistema AI. El algoritmo se entrenó en un gran conjunto de datos de imágenes que no incluían suficientes ejemplos diversos de gorilas. Como resultado, el sistema no pudo identificar con precisión a los gorilas y, en cambio, los etiquetó como humanos.

Respuesta de Google

Google se disculpó rápidamente por el incidente y tomó medidas para solucionar el problema. La empresa eliminó la etiqueta de "gorila" de su sistema y prometió mejorar sus algoritmos de reconocimiento de imágenes para evitar errores similares en el futuro.

Además, Google contrató equipos más diversos de ingenieros y científicos de datos para trabajar en sus sistemas de inteligencia artificial. La compañía también lanzó una iniciativa llamada "AI for Social Good" para promover el desarrollo y uso responsable de la tecnología de IA.

Lecciones aprendidas

El incidente con Google Photos destaca las limitaciones de la IA y la importancia de la diversidad en los datos y los equipos. Los sistemas de IA son tan buenos como los datos con los que están entrenados, y si esos datos están sesgados o incompletos, el sistema producirá resultados sesgados o incompletos.

Para evitar incidentes similares en el futuro, las empresas deben asegurarse de que sus sistemas de IA estén capacitados en diversos conjuntos de datos que incluyen una amplia gama de ejemplos. También deben contratar diversos equipos de ingenieros y científicos de datos que puedan aportar diferentes perspectivas y experiencias al proceso de desarrollo.

Conclusión

El incidente con Google Photos y los gorilas fue una llamada de atención para la industria de la IA. Mostró que incluso los sistemas de IA más avanzados pueden cometer errores y que se pueden generar sesgos en estos sistemas si no se desarrollan y prueban adecuadamente. Sin embargo, también demostró la importancia de asumir la responsabilidad por estos errores y tomar medidas para abordarlos. Al aprender de este incidente, podemos trabajar para crear sistemas de IA más responsables e inclusivos que beneficien a todos.

punto_img

Información más reciente

punto_img