Logotipo de Zephyrnet

Regulaciones de IA: un resumen global

Fecha:

La Inteligencia Artificial avanza a un ritmo exponencial y está cambiando rápidamente el mundo que nos rodea en todos los sectores. Conscientes de los riesgos asociados, los países de todo el mundo han comenzado a redactar e implementar marcos regulatorios para garantizar
que los sistemas de IA sean seguros y confiables. Las principales empresas de tecnología, gobiernos y responsables políticos también han pedido un marco global estandarizado para el desarrollo de sistemas avanzados de IA de manera confiable. Este artículo habla de la
diferentes regulaciones emergentes en diversas geografías, los desafíos inminentes y cómo podrían dar forma al sector de inversión, entre otros.

Nuestra perspectiva sobre las regulaciones de IA

  Algunos de los temas comunes que surgen en las regulaciones de IA son los requisitos en torno a la equidad, la responsabilidad y la transparencia en el uso de la IA. Los formuladores de políticas y otros reguladores están pidiendo a los proveedores que ofrezcan IA responsable para la protección.
de los derechos fundamentales de un individuo y al mismo tiempo fomentar un entorno saludable para la innovación. Aunque Estados Unidos y el Reino Unido han presentado proyectos de regulaciones, la UE está muy por delante en la finalización de las regulaciones en diciembre del 23, que podrían entrar en vigor en 2025.
La UE ha adoptado un enfoque basado en el riesgo que es centralizado, amplio y prescriptivo, el Reino Unido ha adoptado un modelo más descentralizado confiando en los reguladores existentes para elaborar regulaciones sectoriales específicas, ya que el gobierno del Reino Unido quiere evitar más
confusión creando un nuevo regulador intersectorial. El Reino Unido planea adoptar un enfoque de riesgo más basado en los resultados en lugar de aplicar riesgos de incumplimiento a las tecnologías subyacentes.

  Estados Unidos también ha adoptado un enfoque descentralizado y varias agencias federales han elaborado sus propios principios para sus respectivos sectores, p. FTC, CFPB, etc. También es probable que la SEC elabore principios para algoritmos de recomendación financiera.
para los mejores intereses de los inversores. Si bien las normas de la UE son muy amplias y estrictas, las agencias estadounidenses se están quedando atrás. La UE también se ha centrado en el comercio electrónico, las redes sociales y las plataformas en línea que ofrecen una amplia cobertura de sectores, mientras que EE.UU. todavía está
legislar sobre estas cuestiones.

Regulaciones en todo el mundo: una instantánea

Una rápida instantánea del estado actual de las regulaciones en todo el mundo muestra que la mayoría de los países todavía están en el proceso de formular las regulaciones o probablemente en el borrador, con la excepción de Europa y China. Algunos de los países como
México no tiene ningún proyecto de reglamento hasta el momento ni planea tener uno en vigor en el futuro cercano. Observamos el resumen de las regulaciones propuestas para las geografías clave.

US  

Estados Unidos ha presentado múltiples directrices para una IA confiable, como la publicación de la Declaración de Derechos de la IA en octubre de 2022 y la Orden Ejecutiva de la Administración de EE. UU. sobre el uso seguro y confiable de la Inteligencia Artificial. La administración estadounidense
ha aprobado recientemente una orden ejecutiva con énfasis en las siguientes iniciativas.

  • Desarrollo e investigación de IA: la orden ordena a las agencias federales que inviertan en investigación y desarrollo de IA y que hagan que su investigación de IA sea más accesible para el público.
  • Uso de IA en el gobierno: la orden establece estándares para el uso de IA en el gobierno, incluidos requisitos de transparencia, rendición de cuentas y equidad.
  • Desarrollo de la fuerza laboral de IA: la orden ordena a las agencias federales que desarrollen e implementen programas para capacitar y mejorar las habilidades de la fuerza laboral estadounidense en IA.
  • Cooperación internacional en IA: la orden establece una nueva Oficina Nacional de Iniciativa en IA para coordinar la cooperación internacional en IA.

 La orden también incluye una serie de iniciativas específicas, tales como:

  • Creación de una Declaración de Derechos de la IA: la orden ordena al Instituto Nacional de Estándares y Tecnología que desarrolle una Declaración de Derechos de la IA, que describirá los derechos y protecciones de las personas en el contexto de la IA.
  • Establecimiento de un Centro de Excelencia en Ciberseguridad de IA: La orden establece un nuevo Centro de Excelencia en Ciberseguridad de IA para desarrollar y promover mejores prácticas para proteger los sistemas de IA.
  • Lanzamiento de una Nube Nacional de Investigación de IA: La orden lanza una nueva Nube Nacional de Investigación de IA, que brindará a los investigadores acceso a potentes recursos informáticos para desarrollar y probar algoritmos de IA.

  La Declaración de Derechos de la IA es un conjunto de directrices para el diseño y uso responsable de la inteligencia artificial, creada por la Oficina de Política Científica y Tecnológica (OSTP) de la Casa Blanca en medio de un impulso global en curso para establecer más regulaciones que regulen la IA.
El documento, oficialmente denominado plan para una Declaración de Derechos de la IA, publicado en octubre de 2022, es el resultado de una colaboración entre la OSTP, académicos, grupos de derechos humanos, el público en general e incluso grandes empresas como Microsoft y Google.

Ubicación: Canadá

 La Ley de Datos de Inteligencia Artificial (AIDA), que está siendo introducida por el gobierno canadiense junto con la Ley de Protección de la Privacidad del Consumidor (CPPA) como parte del Proyecto de Ley C-27, la Ley de Implementación de la Carta Digital, 2022, es el primer intento de Canadá de
regular la inteligencia artificial (IA). Las provincias de Quebec y Ontario también están estudiando el desarrollo de marcos para crear una IA confiable. Es probable que entren en vigor en 2024.

Europa 

La ley de inteligencia artificial de la UE fue publicada por primera vez por la Comisión Europea en abril de 2021 y adoptada por el Consejo de la Unión Europea el 22 de diciembre. La UE aprobó la Ley de Inteligencia Artificial el 23 de diciembre y es probable que entre en vigor a partir de
2025. A continuación se analizan algunas de las conclusiones clave del proyecto de reglamento.

Las regulaciones actuales son aplicables a cualquier sistema o aplicación de IA que se utilice en la UE, independientemente de si la empresa opera en la UE o fuera de la UE. El reglamento busca adoptar un enfoque basado en el riesgo y clasifica el uso de IA por nivel de riesgo
(inaceptable, alto, limitado y mínimo o nulo riesgo) e impone requisitos de auditoría, documentación y procesos a los desarrolladores e implementadores de sistemas de IA. Por lo tanto, las empresas que desarrollen o implementen sistemas de IA deberán documentar y revisar los casos de uso para identificar
la clasificación de riesgo adecuada.

  • La ley de IA prohíbe los sistemas de “riesgo inaceptable”, incluidos los sistemas biométricos y de reconocimiento facial en lugares públicos sujetos al uso de los mismos. Los sistemas se consideran de alto riesgo si representan un "riesgo significativo" para la salud, la seguridad y la seguridad de un individuo.
    o derechos fundamentales.
  • Los sistemas de IA de alto riesgo estarían sujetos a evaluaciones de conformidad previas al despliegue, disponibilidad de documentación de cumplimiento adecuada, trazabilidad de los resultados, transparencia, supervisión humana, precisión y seguridad.
  • Se proponen obligaciones de transparencia más estrictas para la IA generativa, una subcategoría de modelos básicos, que exigen que los proveedores de dichos sistemas informen a los usuarios cuando el contenido se genera con IA.
  • La propuesta del Parlamento aumenta las posibles sanciones por violar la Ley de IA. La infracción de una práctica prohibida estaría sujeta a sanciones de hasta 40 millones de euros, o el 7% de los ingresos globales anuales de una empresa, lo que sea mayor, frente a 30 millones de euros.
    o el 6% de los ingresos anuales globales.

UK 

  El gobierno del Reino Unido lanzó su libro blanco el 23 de marzo, que define cinco principios rectores para la IA: seguridad, transparencia, equidad, responsabilidad y contestabilidad. El enfoque se basa en un modelo ágil y pro innovación que aprovecha las capacidades
y las habilidades de los reguladores existentes, en lugar de un nuevo regulador intersectorial específico de la IA.

China

         Las tres principales regulaciones de China sobre IA son: la regulación de 2021 sobre algoritmos de recomendación, las reglas de 2022 para la síntesis profunda (contenido generado sintéticamente) y el proyecto de reglas de 2023 sobre IA generativa. Estas regulaciones apuntan a algoritmos de recomendación.
para difundir contenido, imágenes y videos generados sintéticamente y sistemas generativos de inteligencia artificial como ChatGPT de OpenAI. Las reglas crean nuevos requisitos sobre cómo se construyen e implementan los algoritmos, así como sobre qué información deben revelar los desarrolladores de IA.
el gobierno y el público. El borrador del reglamento sobre IA generativa exige que los proveedores presenten una solicitud al registro de algoritmos existente. También incluyó varios requisitos nuevos sobre datos de entrenamiento y contenido generado que pueden resultar extremadamente difíciles.
para que los proveedores cumplan.

Desafíos de implementación

 El conjunto conflictivo de reglas entre geografías plantea un gran desafío para que los proveedores globales de IA adopten las regulaciones de las respectivas jurisdicciones, mientras que podrían implementarse en otras geografías. Además, la implementación del
Las directrices sobre IA no son tan rápidas como la aparición de varios modelos de IA que pueden hacer que la legislación quede obsoleta. Con la excepción de la UE, el desafío de hacer cumplir dichos marcos persiste, ya que la mayoría de las otras geografías han hecho que la adopción sea voluntaria.

 No existe un consenso global claro sobre la definición de sistemas de IA a escala global, por ejemplo. La ley de IA de la UE exige que los proveedores divulguen cualquier material protegido por derechos de autor utilizado para desarrollar las soluciones y el titular puede optar por no recibir los datos protegidos por derechos de autor.
de los conjuntos de datos de entrenamiento, lo que hace que la UE sea una opción menos deseable para los proveedores de IA. Las otras geografías no tienen regulaciones específicas para el uso de material protegido por derechos de autor como conjuntos de datos de capacitación y es prerrogativa de los proveedores individuales ser prudentes.
de material protegido por derechos de autor.

Dado el impacto interdisciplinario de las regulaciones, se requiere consenso de diversos ámbitos, como derecho, ética, TI, finanzas y otros expertos, para acordar disposiciones y marcos comunes.

Las regulaciones diseñadas para abordar riesgos específicos de la IA pueden tener otras consecuencias no forzadas, que podrían obstaculizar posibles innovaciones, investigaciones o productos beneficiosos de la IA. Lograr un equilibrio entre fomentar la innovación y protegerse contra los riesgos es muy difícil
para los gobiernos, ya que también podría restringir las empresas emergentes y la financiación de la IA.

Siguientes Pasos

La ley de IA de la UE ya ha sido aprobada por el parlamento y es probable que se convierta en el estándar global para la regulación de la IA para 2025, mientras que EE. UU. y el Reino Unido tienen un conjunto voluntario de directrices y marcos sin una visión centralizada de todos los sectores y están rezagados.
detrás de la UE en términos de fechas de aplicación. Cada una de las regulaciones (EE.UU., UE y China) refleja su propia estructura social y prioridades nacionales. Como resultado, esto crearía un entorno regulatorio más complejo para que las empresas interactúen entre sí.
geografías. La transparencia, la explicabilidad y la categorización de riesgos (a nivel organizacional, de caso de uso y de modelo/datos) son claves para cumplir con los marcos regulatorios emergentes.

 En el ámbito de los servicios financieros, algunas de las tecnologías comunes de IA/ML se utilizan en investigación de inversiones, robo-asesores, evaluaciones de riesgos, comprobaciones AML, etc. Estos servicios facilitados a través de IA y aprendizaje automático permiten a las instituciones financieras ofrecer ofertas personalizadas.
y diversos productos a sus clientes de manera rentable. La creciente adopción de la IA generativa también viene acompañada de una creciente preocupación por los riesgos financieros. Aunque la UE cuenta con medidas y sanciones estrictas para la protección de las inversiones, la SEC
y la FCA están adoptando un enfoque cauteloso al diseñar las directrices.

La preparación de las empresas para adoptar la regulación a pesar de los desafíos es un paso crucial hacia el cumplimiento global. La preparación de las empresas para cumplir con las regulaciones debe comenzar con un catálogo consolidado de activos de IA que enumere las diversas geografías.
regulaciones, usuarios y productos afectados, categorización de riesgos de las diversas aplicaciones de IA utilizadas internamente, etc. Es imperativo que las empresas creen un banco de trabajo de IA bien definido que comprenda un marco holístico con varios componentes integrados como gestión de datos,
Innovación, gobernanza, cumplimiento de políticas, etc., mostrando así la confiabilidad de los sistemas de IA involucrados.

Queda por ver si habrá una colaboración en toda la industria entre los distintos responsables políticos, las principales empresas de tecnología y otras partes interesadas para redactar una regulación global estandarizada sobre la IA. Los líderes del G7 también han pedido debates sobre la generación de energía.
IA, con el objetivo de establecer estándares y regulaciones globales para el uso responsable de la tecnología.

punto_img

Información más reciente

punto_img