Logotipo de Zephyrnet

Los legisladores de la UE se alinean para defender la primera Ley de IA del mundo

Fecha:

El Parlamento Europeo ha promulgado la primera legislación del mundo diseñada específicamente para abordar el riesgo de la inteligencia artificial, incluida la categorización biométrica y la manipulación del comportamiento humano, así como reglas más estrictas para la introducción de la IA generativa.

En una votación esta mañana, los miembros del Parlamento Europeo aprobaron el texto final de la ley, que está diseñada para proteger al público en el campo en rápido desarrollo de los modelos de IA de propósito general (GPAI), un término utilizado en la ley para abarcar la generación generativa. IA como ChatGPT. Los modelos de IA también tendrán que cumplir con las obligaciones de transparencia y las normas de derechos de autor de la UE. Los modelos más potentes se enfrentarán a requisitos de seguridad adicionales.

La Ley requerirá que el contenido en línea que utilice inteligencia artificial para falsificar personas y eventos reales esté claramente etiquetado en lugar de engañar a las personas con “deepfakes”.

Si bien los críticos argumentan que las reglas se suavizaron en el último minuto, sugiriendo incluso que los gigantes tecnológicos estadounidenses hicieran lobby a través de socios de la UE para modificar la legislación, el analista principal de Forrester, Enza Iannopollo, dijo que era un compromiso necesario para que las leyes se promulgaran.

“Existe la oportunidad para que la UE regrese e intente revisar algunas partes de los anexos. Creo que es un compromiso. Podria haber sido mejor? Sí. ¿Fue buena idea esperar más? Realmente no lo creo”, dijo. El registro.

Según la informe de Bloomberg, los gobiernos francés y alemán intervinieron con regulaciones más estrictas para proteger a las empresas locales Mistral AI y Aleph Alpha. Otros notaron que Mistral ha aceptado una inversión de 15 millones de euros (16.3 millones de dólares) de Microsoft.

El grupo de campaña Corporate Europe Observatory expresó su preocupación por la influencia que tuvieron las grandes empresas tecnológicas y europeas en la configuración del texto final.

El El Supervisor Europeo de Protección de Datos dijo se mostró decepcionado con el texto final, calificándolo de “oportunidad perdida para establecer un marco legal sólido y eficaz” para proteger los derechos humanos en el desarrollo de la IA.

Sin embargo, en una rueda de prensa celebrada antes de la votación, los políticos responsables de negociar el texto dijeron que habían logrado un equilibrio entre proteger a los ciudadanos y permitir a las empresas innovar.

Brando Benifei, del partido Socialistas y Demócratas de Italia, dijo que los legisladores se enfrentaron a los cabilderos. "El resultado habla por sí mismo. La legislación define claramente la necesidad de seguridad de los modelos más potentes con criterios claros. Entregamos un marco claro que garantizará los requisitos de transparencia y seguridad para los modelos más potentes”.

Benifei dijo que al mismo tiempo, el concepto de caja de arena [PDF] permite a las empresas desarrollar nuevos productos bajo la supervisión de un regulador y ayudaría a la innovación.

“En nuestro compromiso como Parlamento de contar con un entorno de pruebas obligatorio en todos los estados miembros para permitir que las empresas experimenten y se desarrollen, de hecho hemos elegido un entorno muy favorable a la innovación. Si nos fijamos en las encuestas, demasiados ciudadanos en Europa se muestran escépticos sobre el uso de la IA y esto es una desventaja competitiva y asfixiaría la innovación. En cambio, queremos que nuestros ciudadanos sepan que gracias a nuestras normas podemos protegerlos y que pueden confiar en las empresas que desarrollarán la IA en Europa. De hecho, eso respalda la innovación”.

Dragoş Tudorache, del partido Renew, Rumania, dijo que los legisladores habían resistido la presión, particularmente en materia de infracción de derechos de autor.

En septiembre, el Gremio de Autores y 17 escritores presentó una demanda colectiva en los EE. UU. por el uso de su material por parte de OpenAI para crear sus servicios basados ​​​​en LLM.

“Claramente, todos aquellos que desarrollaron estos modelos tenían interés en mantener una caja negra en lo que respecta a los datos que entran en estos algoritmos. Mientras que promovimos la idea de transparencia, particularmente para el material protegido por derechos de autor, porque pensamos que es la única manera de hacer efectivos los derechos de los autores”, dijo Tudorache.

Iannopollo, de Forrester, afirmó: “Se trata de una legislación muy compleja. Hay muchas áreas en las que la legislación podría haberse mejorado. Uno, definitivamente en torno a los requisitos para la IA de propósito general que se agregó en una etapa posterior y definitivamente se siente mucho menos fuerte que el enfoque basado en riesgos.

“Pero tenemos que ser realistas. La tecnología está evolucionando muy rápidamente, por lo que es muy difícil crear una legislación que sea simplemente perfecta... Hay más riesgo en retrasar la legislación en el intento de mejorarla [que las imperfecciones]”.

Hay un deseo entre los políticos europeos de revisar y fortalecer la legislación, particularmente en términos de protección de derechos de autor, dijo. ®

punto_img

Información más reciente

punto_img