Logotipo de Zephyrnet

EE.UU. dice que la ley de IA de la UE es vaga e indefinida y perjudica a las empresas más pequeñas

Fecha:

Según se informa, un análisis del gobierno de EE. UU. ha planteado preocupaciones sobre la próxima ley de IA de la Unión Europea (UE), advirtiendo que podría obstaculizar la inversión en la tecnología emergente y favorecer a las grandes empresas de IA sobre sus rivales más pequeñas.

En documentos no divulgados anteriormente, el Departamento de Estado de EE.UU. advierte que algunas normas de la Ley de IA de Europa se basan en términos que son “vagos o indefinidos”, según Bloomberg, que obtuvo los documentos.

Lea también: Unión Europea aprueba proyecto de ley para regular la IA

La Ley de IA reprime la "investigación y el desarrollo"

En junio, el Parlamento Europeo, principal órgano legislativo de la UE, aprobado una nueva ley para regular la inteligencia artificial. Conocida como Ley de IA, la ley restringirá el uso de sistemas de IA que se consideren de alto riesgo, como el software de reconocimiento facial.

También requerirá empresas que desarrollen sistemas de inteligencia artificial como ChatGPT para revelar más información sobre los datos utilizados para entrenar a los bots. La ley entrará en vigor en 2025. Los tres poderes de la UE (la Comisión, el Parlamento y el Consejo) tendrán que ponerse de acuerdo sobre su versión final.

Centrándose en la versión de la Ley de IA del Parlamento Europeo, el análisis estadounidense dijo que las nuevas regulaciones de IA beneficiarían a las empresas tecnológicas más grandes que tienen los medios financieros para entrenar sistemas de aprendizaje automático. Es probable que las empresas más pequeñas sufran pérdidas.

El análisis advierte además que las normas de la UE corren el riesgo de “frenar el esperado impulso a la productividad y potencialmente conducir a una migración de empleos e inversiones a otros mercados”.

Según el Departamento de Estado, las nuevas regulaciones probablemente también frenarían “la inversión en I+D y comercialización de IA en la UE, limitando la competitividad de las empresas europeas”, porque entrenar grandes modelos lingüísticos es costoso en muchos sentidos.

Estados Unidos aún tiene que desarrollar sus propias reglas de IA, pero una de sus principales preocupaciones con las regulaciones de la UE es que el Parlamento Europeo se centró en cómo se desarrollan los modelos de IA. Según Bloomberg reporte, Estados Unidos quiere regular cómo se utilizan realmente esos modelos.

Estados Unidos ha mostrado preocupación por la ley de IA de la UE en el pasado. Cuando la Comisión de la UE propuso por primera vez la Ley de IA en 2021, Estados Unidos se opuso. En mayo, el secretario de Estado estadounidense, Antony Blinken retrasado contra varias de las propuestas del Parlamento de la UE para controlar la IA generativa durante una reunión con funcionarios de la Comisión en Suecia.

¿Qué dice la ley de IA de la UE?

El análisis del Departamento de Estado de EE.UU., que incluye “una edición línea por línea de ciertas disposiciones de la ley”, habría sido compartido con sus homólogos europeos en las últimas semanas. Estados Unidos no ha comentado públicamente sobre los comentarios, aunque se citó a un funcionario del Departamento de Estado. decir:

"No comentamos sobre información supuestamente filtrada", dijo el portavoz, según informó Computer World.

"A través de nuestra asociación sólida y continua con la Unión Europea, buscamos solidaridad digital en cuestiones bilaterales clave".

Hablando sobre la Ley de IA en junio, la presidenta del Parlamento Europeo, Roberta Metsola dijo La adopción de las nuevas reglas mostró el compromiso de Europa con el desarrollo responsable de la inteligencia artificial con un "enfoque equilibrado y centrado en el ser humano".

El actual borrador de la Ley de IA del Parlamento Europeo propone un enfoque basado en el riesgo para regular los sistemas de inteligencia artificial. Los sistemas de IA se clasificarían en diferentes niveles de riesgo según su potencial para dañar a los consumidores.

Según la ley, la categoría de menor riesgo se relaciona con la IA utilizada en videojuegos o filtros de spam. La categoría de mayor riesgo incluye la IA que podría usarse para puntajes sociales, una práctica que asigna puntajes a individuos, ya sea para préstamos o vivienda, en función de su comportamiento.

La UE dice que prohibirá tales programas. Las empresas que desarrollen o utilicen la llamada IA ​​de alto riesgo deberían proporcionar información sobre cómo funcionan sus sistemas. Esto se hace para garantizar que los programas de IA sean justos y transparentes y que no discriminen a las personas, dicen las reglas.

La Ley de IA surge en medio de advertencias de algunos expertos de que la inteligencia artificial podría representar una amenaza a la humanidad si se desarrolla demasiado rápido.

punto_img

Información más reciente

punto_img