Logotipo de Zephyrnet

Políticas de indemnización de derechos de autor para la IA generativa: ¿Están realmente seguros los usuarios?

Fecha:


 Introducción

Con la expansión de la tecnología de IA generativa en plataformas y aplicaciones, los desarrolladores están lidiando con una serie de litigios por derechos de autor. Por ejemplo, recientemente, una demanda colectiva se presentó contra el chatbot conversacional de IA generativa de Google, Bard. Se ha acusado a Google de realizar desguace web (incluido contenido protegido por derechos de autor) para entrenar su chatbot. Incluso el popular chatbot LLM, ChatGPT, ha recibido críticas de los medios y autores y ha sido testigo de varios trajes de acción de clase presentado en su contra. El más destacado de ellos es el de gremio de autores, un grupo de autores destacados en Estados Unidos.

En respuesta, las empresas han comenzado a implementar políticas de indemnización de derechos de autor para proteger a sus usuarios de posibles demandas por derechos de autor que surjan del uso de su tecnología de IA generativa. Una póliza de indemnización de derechos de autor, a veces denominada seguro por infracción de derechos de autor, es un tipo de seguro que se utiliza para proteger a personas o entidades de litigios que surjan de posibles reclamaciones por infracción de derechos de autor. En este blog, examino la política de indemnización por derechos de autor de tres importantes gigantes tecnológicos y analizo su eficacia legal para proteger a sus usuarios contra posibles litigios por derechos de autor.

¿Cuáles son las preocupaciones sobre derechos de autor con la IA generativa?

Las preocupaciones sobre los derechos de autor con la IA generativa se han discutido anteriormente en dos publicaciones de blog (esta página y esta página). En resumen, la IA generativa plantea preocupaciones sobre la infracción de derechos de autor en diversas áreas. Por ejemplo, los productos de la IA generativa o la propia IA pueden infringir las licencias de uso de derechos de autor. Un área de controversia es si las obras generadas por IA califican inicialmente para la protección de los derechos de autor. Sólo las obras de autoría generadas por humanos están protegidas por las leyes de derechos de autor. Algunos sostienen que, dado que los productos generados por IA no son resultado de la creatividad humana, no satisfacen esta condición. Algunos sostienen que los escritores deberían ser quienes desarrollaron los modelos de IA que producen estas obras.

La cuestión de si el uso de datos protegidos por derechos de autor para entrenar modelos de IA viola los derechos de autor es otra fuente de preocupación. El conjunto de datos utilizados para indicarle a un modelo de IA cómo realizar una tarea se conoce como datos de entrenamiento. Los datos de entrenamiento para la IA generativa con frecuencia consisten en medios protegidos por derechos de autor, incluidos texto, fotografías y música. Mientras que algunos sostienen que el uso de datos protegidos por derechos de autor para entrenar modelos de IA es un uso legítimo, otros sostienen que es una infracción.

Por último, existe la preocupación de que se puedan producir trabajos derivados no aprobados utilizando IA generativa. Una obra que se basa en una obra protegida por derechos de autor ya existente se denomina obra derivada. Ejemplos de obras derivadas pueden incluir una versión musical de una obra de teatro o la traducción de un libro. Sin el consentimiento del propietario de los derechos de autor, la IA generativa puede utilizarse para producir obras derivadas, lo que puede dar lugar a una infracción. Se puede considerar que el trabajo generado por IA viola los derechos de autor de otra persona. 

luciérnaga de adobe

In Junio 2023, Adobe, el fabricante de Acrobat y Photoshop, se convirtió en una de las primeras empresas en todo el mundo en introducir su política de indemnización de propiedad intelectual para su nuevo producto de IA generativa, Adobe Firefly. Firefly, un producto de Adobe Creative Cloud, es un creador de imágenes generativo basado en inteligencia artificial. El producto está desarrollado específicamente para uso comercial a fin de proporcionar a las empresas una herramienta para generar imágenes estándar profesionales con facilidad. Como tal, para garantizar la "seguridad comercial" de Firefly, Adobe ha estado tomando las debidas precauciones. A modo de ejemplo, Firefly ha sido capacitado en contenido con licencia como Adobe Stock (un producto de Adobe con su propio conjunto de imágenes de archivo), material de dominio público (derechos de autor vencidos) y otro material sin derechos de autor o con licencia abierta. Adobe es fundador y colaborador de la Iniciativa de autenticidad de contenido (CAI), una iniciativa que involucra a múltiples empresas de medios y tecnología; academia y ONG. El CAI busca proporcionar un estándar industrial abierto para la procedencia y autenticidad del contenido.

Además, Adobe es parte del Coalición por la procedencia y la autenticidad del contenido (C2PA). C2PA ha establecido un estándar técnico abierto que permite a editores, creadores y consumidores rastrear los orígenes de diferentes tipos de medios. Esto incluye una opción para que los creadores indiquen si la IA generativa se utilizó a través de un Credencial de contenido. Las credenciales de contenido son un tipo de “a prueba de manipulación” Metadatos diseñados para facilitar una mayor transparencia e identificación en el proceso de creación de imágenes a través de herramientas como la IA generativa. Para utilizar las Credenciales de contenido, los creadores deben agregar metadatos a prueba de manipulaciones a sus trabajos generados utilizando estas Credenciales. Permite a los creadores agregar más información sobre su trabajo, incluido el nombre/identidad de su creador, el procedimiento de edición y otra información relacionada. Por lo tanto, a diferencia de OpenAI, Adobe ha sido cauteloso al seleccionar sus conjuntos de datos de capacitación para protegerlos contra reclamos de infracción de derechos de autor. Si esto no fuera suficiente, Adobe introdujo otra característica notable para proteger a sus usuarios contra la indemnización por derechos de autor: la política de indemnización de propiedad intelectual. La indemnización de propiedad intelectual de Firefly proporciona indemnización contra cualquier procedimiento legal relacionado con los derechos de autor. Sin embargo, esto, por supuesto, está sujeto a algunos de los términos y condiciones de uso. Este movimiento de Adobe parece ser una medida preventiva en respuesta a las críticas recibidas por otras herramientas de IA de generación de imágenes como DALL-E, Difusión establey Soñar.

Compromiso de derechos de autor de Copilot de Microsoft

Después de Adobe, Microsoft también publicó su política de indemnización, Compromiso de derechos de autor de Copilot. La decisión de Microsoft de abordar las preocupaciones de los consumidores sobre la infracción de derechos de autor en relación con sus asistentes de inteligencia artificial es un paso significativo. Al hacerlo, la cobertura de indemnización de propiedad intelectual ya existente de Microsoft se amplía para incluir reclamos de derechos de autor relacionados con su conjunto de Copilots, que incluye GitHub, Dynamics 365, Power Platform y otros productos. Curiosamente, también cubre el resultado que producen estos ayudantes de IA. Esta garantía tiene como objetivo proteger a los usuarios comerciales contra posibles pérdidas monetarias en caso de que sean acusados ​​de infracción de derechos de autor. Sin embargo, la aplicabilidad de estas promesas ha sido objeto de escrutinio por parte de ciertos expertos hasta que se incorporen por completo a los acuerdos comerciales y a las condiciones de servicio. Esto es importante porque actualmente, esta “política” de indemnización es simplemente una declaración de compromiso publicada en su sitio web; no se ha incluido formalmente en ninguno de sus acuerdos de usuario. Incluso si consideráramos el compromiso de Microsoft como una demostración de su intención legal, existen más complicaciones. El compromiso establece que los usuarios deben utilizar filtros de contenido y sistemas de seguridad; esto refleja la complejidad de navegar por las diversas ambigüedades y espacios grises de la infracción de derechos de autor relacionados con la IA generativa. Por lo tanto, incluso en el mejor de los casos, la política de Microsoft no parece garantizar una protección segura a sus usuarios. 

Política de indemnización de Google para usuarios de IA generativa

Recientemente, Google también publicó su política de indemnización para los usuarios de IA generativa y se unió a la refriega de las políticas de indemnización de los principales gigantes tecnológicos al introducir una política de indemnización integral para los usuarios de IA generativa. en sus plataformas Google Cloud y Workspace. El enfoque de Google sobre este tema es minucioso, ya que lo aborda de manera doble. Esta política se aplica específicamente al software en el Plataforma de desarrollo de IA Vertex y del Sistema de IA dúo, que se centra principalmente en la generación de texto e imágenes en los programas Google Workspace y Cloud. Es importante señalar que la indemnización de Google no se extiende a los casos en los que los usuarios violan intencionalmente los derechos de otros, por ejemplo, utilizando material protegido por derechos de autor con fines comerciales (y sin estar sujetos a ninguna disposición de trato justo). Esta distinción existe para garantizar el uso responsable de la tecnología de IA generativa.

Significativamente, la política de indemnización de Google no existe para su popular chatbot de IA generativa, Google Bard. Solo se limita a Vertex AI y Duet AI, que está limitado a muchos menos usuarios. El área importante en la que Google Bard se diferencia de otras herramientas de IA generativa, como Adobe Firefly, es el contenido o los conjuntos de datos utilizados para su entrenamiento. Google Bard es el chatbot de IA generativa de Google que utiliza un modelo de lenguaje grande (LLM) similar al ChatGPT de OpenAI.

Mientras que Adobe Firefly se limita a material sin derechos de autor, Google Bard supuestamente está entrenado en todas las fuentes de Internet (independientemente de los derechos de autor). Esto ha presentado una gran preocupación para Google, como lo demuestra una reciente serie de litigios contra Bard. Por lo tanto, la política de Google no parece proporcionar una protección sustancial y efectiva a sus usuarios, y esto probablemente explica por qué esta política no ha recibido mucha atención incluso un mes después de su introducción. No hay duda de que ni siquiera OpenAI ha anunciado ninguna política de indemnización para ChatGPT que sea bastante similar a cómo funciona Google Bard en materia de derechos de autor.

Conclusión

En el campo rápidamente cambiante de la IA generativa, las reglas de indemnización de derechos de autor son esenciales para brindar protección legal a los usuarios. En respuesta a estas preocupaciones, Microsoft, Adobe y Google han modificado sus reglas para abordar facetas particulares de la aplicación de la IA generativa. Incluso si estos planes representan un gran paso adelante, los consumidores aún deben ser conscientes y cautelosos, sabiendo el alcance y los límites de la indemnización ofrecida. Estas regulaciones seguramente se desarrollarán a la par del avance de la IA, brindando aún más seguridad jurídica a las empresas que utilizan esta tecnología innovadora.

Prachi Mathur

Autor

Prachi Mathur es estudiante de pregrado en la Universidad Nacional de Derecho de la India (NLSIU), Bangalore. Está interesada en derecho tecnológico, derecho de propiedad intelectual, derecho y economía, derecho probatorio y derecho penal, entre otros. Le gusta analizar el funcionamiento de la ley a través de las publicaciones de su blog.

punto_img

Información más reciente

punto_img