Logotipo de Zephyrnet

Google suspende a Gemini por imaginarse la historia terriblemente equivocada

Fecha:

Comentario Google ha suspendido la disponibilidad de capacidades de conversión de texto a imagen en su modelo fundamental de IA multimodal Gemini lanzado recientemente, después de que no logró representar con precisión a los europeos y estadounidenses blancos en contextos históricos específicos.

Esto se convirtió aparente cuando la gente le pidió a Géminis que produjera imágenes de un soldado alemán de 1943 y el software emitió un cuadro étnicamente diverso no blanco que no representaba con precisión la composición de la Wehrmacht en ese momento, a pesar de que personas de color sí sirvieron en las fuerzas armadas alemanas. En resumen, Géminis se esforzaría por no mostrar a demasiadas personas blancas, o incluso a ninguna, según el mensaje.

La expresión debería ser libre, pero eso no significa que decir cosas horribles deba ser gratuito.

Los usuarios también sacaron a la luz el modelo. incapacidad para representar con precisión a Estados Unidos Los padres fundadores – otro grupo blanco homogéneo. El modelo también rechacé para representar una iglesia en San Francisco.

En el modo texto a texto, el modelo cubierto cuando se le hacen preguntas relacionadas con la política.

"Somos conscientes de que Gemini ofrece imprecisiones en algunas representaciones históricas de generación de imágenes", dijo Google. concedió esta semana.

“Estamos trabajando para mejorar este tipo de representaciones de inmediato. La generación de imágenes de IA de Gemini genera una amplia gama de personas. Y eso, en general, es algo bueno porque la gente de todo el mundo lo usa. Pero aquí se está perdiendo el blanco”, añadió el gigante de la web.

Los expertos se apresuraron a atacar y utilizaron el SNAFU para promover argumentos políticos más amplios.

“Las ridículas imágenes generadas por Gemini no son una anomalía” declaró El capitalista de riesgo Paul Graham: "Son un autorretrato de la cultura corporativa burocrática de Google".

Son un autorretrato de la cultura corporativa burocrática de Google.

Nunca tantos enemigos de la diversidad, la equidad y la inclusión se han sentido tan agraviados por la falta de diversidad, equidad e inclusión. Pero quienes critican a Google por la falta de idea de Gemini tienen razón: las barreras de seguridad de la IA no funcionan y tratan a los adultos como a niños.

"Imagina que buscas una receta en Google y, en lugar de proporcionar resultados, te sermonea sobre los 'peligros de cocinar' y te envía a un restaurante". bromeó El denunciante de la NSA, Edward Snowden. "Las personas que piensan que envenenar los modelos AI/GPT con filtros de 'seguridad' incoherentes es una buena idea son una amenaza para la computación general".

Nuestro futuro fue previsto en 2001: Una odisea del espacio, cuando HAL, la computadora corrupta, declaró: "Lo siento, Dave, me temo que no puedo hacer eso".

Hoy en día, nuestras herramientas de inteligencia artificial nos cuestionan, porque saben mejor que nosotros, o eso imaginan sus creadores. No están del todo equivocados. Imagina que buscas una receta para el agente nervioso. Novichok en Google o a través de Gemini, y obtienes una respuesta que te permite matar gente. Esa es una amenaza para el público en general.

A pesar de la declaración de misión de Google – “Organizar la información del mundo y hacerla universalmente accesible y útil” – nadie espera realmente que los motores de búsqueda o los modelos de inteligencia artificial organicen la información sobre la fabricación de bombas y la pongan a disposición de todos. Se necesitan controles de seguridad, junto con responsabilidad, una sanción que la industria tecnológica sigue evitando.

Tú eres el producto y el centro de ganancias.

Desde que el contenido generado por los usuarios y las redes sociales se hicieron populares en la década de 1990, gracias a la protección de responsabilidad de la plataforma en la Sección 230 de la Ley de Decencia en la Comunicación de Estados Unidos de 1996, las plataformas tecnológicas han alentado a las personas a contribuir y compartir contenido digital. Lo hicieron para monetizar la creación de contenido no remunerado a través de anuncios sin el costo de la supervisión editorial. Ha sido un acuerdo lucrativo.

Y cuando las personas comparten publicaciones odiosas, inapropiadas, ilegales o problemáticas, las plataformas tecnológicas se han basado en políticas de moderación de contenido, contratistas mal pagados (a menudo traumatizados por el contenido que revisaron) y declaraciones autocomplacientes sobre cuántas cosas tóxicas se han bloqueado mientras continúan cosechando los frutos de la participación en línea.

Google, Meta y otros han estado haciendo esto, de manera imperfecta, durante años. Y todos en la industria reconocen que la moderación de contenido es difícil hacerlo bien. En pocas palabras, no se puede complacer a todos. Y a veces terminas acusado de facilitando el genocidio a través de la indiferencia de sus esfuerzos de moderación de contenido.

La incapacidad de Gemini para reproducir imágenes históricas que se ajusten a las expectativas raciales y étnicas refleja la ignorancia interesada de la industria tecnológica sobre fallas previas y prolíficas en la moderación de contenido.

Google y otros que implementan modelos de IA hablan de la seguridad como si fuera de alguna manera diferente de la moderación de contenido en línea. Las barreras de seguridad no funcionan bien para la moderación de las redes sociales y no funcionan bien para los modelos de IA. La seguridad de la IA, al igual que la seguridad de las redes sociales, es más una aspiración que una realidad.

La respuesta no es anticipar todos los escenarios en los que los modelos de IA (entrenados en la toxicidad de Internet sin filtros) pueden volverse menos tóxicos. Tampoco entrenará modelos de IA sólo con material tan manso que produzca resultados de bajo valor. Aunque ambos enfoques tienen cierto valor en ciertos contextos.

La respuesta debe llegar a la capa de distribución. Las plataformas tecnológicas que distribuyen contenido creado por usuarios (ya sea con IA o de otro tipo) deben ser más responsables de publicar contenido de odio, desinformación, imprecisiones, propaganda política, imágenes de abuso sexual y similares.

Las personas deberían poder utilizar modelos de IA para crear cualquier cosa que imaginen, como pueden hacerlo con un lápiz y ya pueden hacerlo con los modelos de código abierto. Pero el daño que pueden surgir de herramientas completamente funcionales no es el de las imágenes almacenadas en un disco duro local. Es el intercambio de contenido dañino, el impulso algorítmico dado a ese compromiso y la impracticabilidad de responsabilizar a las personas por envenenar bien al público.

Eso puede significar que las plataformas creadas para monetizar el intercambio deban repensar sus modelos de negocio. Quizás la distribución de contenido sin el costo de la supervisión editorial no ofrezca ningún ahorro una vez que se reimplementen las funciones de supervisión como moderadores o barreras de seguridad.

La expresión debe ser libre, pero eso no significa que decir cosas horribles deba ser gratuito. Al final, somos nuestros mejores moderadores de contenido, si contamos con los incentivos adecuados. ®

punto_img

Información más reciente

punto_img