Logotipo de Zephyrnet

OpenAI enfrenta críticas después de la entrevista del CTO sobre Sora

Fecha:

OpenAI, el influyente laboratorio de investigación de inteligencia artificial detrás de herramientas innovadoras como ChatGPT y Sora, se ha encontrado en problemas luego de una entrevista reciente con su directora de tecnología, Mira Murati.

La entrevista, realizado por la reportera del Wall Street Journal Joanna Stern, se centró en el último sistema de generación de imágenes, o más bien de vídeo, de OpenAI. Sora.

Las preocupaciones se centran en el posible uso indebido de trabajos protegidos por derechos de autor para entrenar modelos de IA y la falta de transparencia de OpenAI con respecto a sus prácticas de datos.

Los datos de entrenamiento de Sora están en duda.

En el centro de la controversia se encuentra la cuestión de los datos de entrenamiento, Los conjuntos de datos masivos utilizados para entrenar modelos de IA..

Cuando se le preguntó acerca de las fuentes de datos utilizadas para Sora, Murati proporcionó la respuesta estándar: el modelo había sido entrenado en "datos disponibles públicamente y con licencia".

Sin embargo, investigaciones posteriores revelaron vacilaciones e incertidumbre por parte de Murati sobre los detalles específicos de este conjunto de datos.

Esta respuesta tiene banderas rojas levantadas entre artistas, fotógrafos y expertos en propiedad intelectual. Los sistemas de generación de imágenes de IA dependen en gran medida de la ingesta de grandes cantidades de imágenes, muchas de las cuales pueden estar protegidas por derechos de autor. La falta de claridad en torno a los datos de entrenamiento de Sora plantea dudas sobre si OpenAI ha salvaguardado adecuadamente los derechos de los creadores de contenido.

Controversia sobre los datos de entrenamiento de OpenAI SORA
La base de datos de entrenamiento de Sora no ha sido publicada en ninguna plataforma oficial. (Crédito de la imagen)

Uso de Shutterstock admitido más adelante

Para echar más leña al fuego fue la negativa inicial de Murati a abordar si las imágenes de Shutterstock eran un componente del conjunto de datos de entrenamiento de Sora. Sólo después de la entrevista, en una nota a pie de página añadida por el Wall Street Journal, Murati confirmó el uso de la biblioteca de imágenes de Shutterstock.

Esta confirmación contradice la postura pública de OpenAI de "datos disponibles públicamente y con licencia”y sugiere un intento de ocultar prácticas de abastecimiento potencialmente problemáticas.

Shutterstock y OpenAI formaron una asociación otorgar derechos a OpenAI para usar la biblioteca de imágenes de Shutterstock en el entrenamiento de modelos de generación de imágenes como DALL-E 2 y potencialmente Sora.

A cambio, los contribuyentes de Shutterstock (los fotógrafos y artistas cuyas imágenes están en la plataforma) reciben una compensación cuando su trabajo se utiliza en el desarrollo de estos modelos de IA.

Se desarrolla una pesadilla de relaciones públicas

Es seguro decir que la mayoría de la gente de relaciones públicas no consideraría esta entrevista como una obra maestra de relaciones públicas.

La falta de claridad de Murati llega en un momento delicado para OpenAI, ya enfrenta importantes demandas por derechos de autor, incluido uno importante presentado por el New York Times.

El público está examinando prácticas como el supuesto uso secreto de vídeos de YouTube por parte de OpenAI para el entrenamiento de modelos, como informado anteriormente por The Information. Con partes interesadas que van desde artistas hasta políticos exigiendo rendición de cuentas, la evasión de Murati sólo alimenta el fuego.

El enfoque opaco de OpenAI está resultando espectacularmente contraproducente, transformando la entrevista de Sora en un desastre de relaciones públicas.

La transparencia no es el tema más discutido por nada

Este incidente subraya una verdad fundamental: revelar la verdad es primordial en el mundo de la IA. Las tambaleantes respuestas de OpenAI han socavado gravemente la confianza del público e intensificado las preguntas sobre sus prácticas éticas. La controversia de Sora destaca el creciente coro exigiendo una mayor responsabilidad dentro de la industria de la IA.

La renuencia de Murati a revelar los detalles de los datos de entrenamiento de Sora engendra desconfianza y sienta un precedente peligroso.

Sin la claridad que exigen los artistas, los creadores y el público, los debates éticos y el potencial de acciones legales solo se intensificarán.

No hay ángeles en esta tierra.

Si bien gran parte del escrutinio actual recae directamente en OpenAI, es crucial recordar no son el único jugador en el juego.

Investigación de IA de Facebook modelo LLaMA y Géminis de Google También se han enfrentado a acusaciones de fuentes de datos de formación problemáticas.

Controversia sobre los datos de entrenamiento de OpenAI SORA
La cuestión de la transparencia en los desarrollos de la IA lleva mucho tiempo en la agenda (Crédito de la imagen)

Esto no es sorprendente, ya que Informes de Business Insider que Meta ya ha admitido usando publicaciones de Instagram y Facebook para entrenar sus modelos de IA. Además, El control de Google sobre vastas franjas de Internet les brinda acceso incomparable a posibles datos de capacitación, lo que genera preocupaciones éticas similares sobre el consentimiento y los derechos de autor.

La situación con Sora de OpenAI es sólo una pieza de un rompecabezas más grande. Todo el campo del desarrollo de la IA se enfrenta a un escrutinio con respecto a sus prácticas de datos y sus posibles implicaciones éticas.


Crédito de la imagen destacada: Freepik.

punto_img

Información más reciente

punto_img