Logotipo de Zephyrnet

Mejores prácticas de gobernanza de la IA: DATAVERSITY

Fecha:

Sansoen Saengsakaorat / Shutterstock.com

La gobernanza de la IA tiene como objetivo promover el uso responsable de la inteligencia artificial para el mejoramiento de la humanidad. La inteligencia artificial ha demostrado ser muy útil para completar una gran variedad de tareas de forma rápida y eficiente. Lamentablemente, también se puede utilizar para apoyar conductas delictivas o para crear y distribuir información errónea. La gobernanza de la IA es un esfuerzo por minimizar el uso de la inteligencia artificial para comportamientos delictivos y poco éticos.

Los avances recientes en inteligencia artificial (ChatGPT, IA generativa, grandes modelos de lenguaje) han impulsado a los líderes de la industria y del gobierno a reconocer la necesidad de pautas y regulaciones éticas al utilizar la IA.     

El desarrollo de programas, regulaciones y directrices de gobernanza de la IA es un esfuerzo para gobernar el desarrollo y las aplicaciones de la tecnología de la IA. Los escritores, por ejemplo, han expresado gran preocupación por ser reemplazados por la inteligencia artificial, y el Writers Guild of America se declaró en huelga, exigiendo aumentos salariales y severas limitaciones al uso de la inteligencia artificial. IA con fines de escritura

La capacidad de crear imágenes realistas (conocida como "falsificaciones profundas”) de personas que dicen cualquier cosa que desee la persona que controla la IA se ha convertido en una preocupación para algunos políticos y grupos políticos. Se han presentado demandas de rescate después de que el sistema informático de una empresa haya sido infectado por malware generado por IA, o después de la recreación de la voz de una hija en el teléfono, sollozando y contándole a un padre. ella ha sido secuestrada.

La gobernanza de la IA aborda una variedad de cuestiones críticas, como la privacidad, sesgos incorporados, suplantación de identidad, robo y fraude. Es lamentable que sean necesarias leyes y reglamentos para proteger a la gente de personas con una ética débil o nula. Las empresas deben esforzarse en mantenerse actualizadas sobre las leyes y regulaciones emergentes y asegurarse de que las creaciones y el despliegue de sus sistemas de inteligencia artificial cumplan con las normas.

Las organizaciones pueden navegar por el preocupaciones éticas planteadas por el uso de la inteligencia artificial al adherirse a un sistema de mejores prácticas de gobernanza de la IA, promoviendo a su vez su uso responsable para el mejoramiento de la humanidad.

Esfuerzos gubernamentales para regular la inteligencia artificial

En Estados Unidos, la libertad de expresión puede confundirse con la libertad de mentir. La situación es desconcertante y dificulta la creación de leyes que restrinjan la información errónea. La inteligencia artificial puede ser una herramienta notablemente útil para contribuir al fraude. 

Para desarrollar un sistema que proteja tanto a los individuos como a la libertad de ser innovadores, los gobiernos deben tomar ciertas medidas. El primer paso implica desarrollar una comprensión de los problemas resultantes del uso poco ético de la inteligencia artificial. En los Estados Unidos, el Senado iniciado Esto cuando pidieron a varios directores ejecutivos de tecnología que asistieran a nueve sesiones, la primera de las cuales tuvo lugar el 13 de septiembre de 2023, para discutir las preocupaciones de los directores ejecutivos sobre la IA.

El 30 de octubre de 2023, el presidente Biden emitió un orden ejecutiva con respecto a las preocupaciones sobre la IA. Con la excepción de un mandato que exige que “los desarrolladores de los sistemas de inteligencia artificial más potentes compartan los resultados de sus pruebas de seguridad y otra información crítica con el gobierno de los EE. UU.”, la orden ejecutiva se ocupa del “desarrollo” de normas y directrices. En este momento, Estados Unidos no ha desarrollado ninguna ley que controle o limite el comportamiento de la inteligencia artificial.  

La Unión Europea (UE) fue una de las primeras organizaciones gubernamentales en decidir que necesitaban regulaciones centradas en la IA. El texto final de su propuesta legislativa, la Ley de IA de la UE, todavía se está desarrollando tras un acuerdo del 8 de diciembre de 2023. Eligieron desarrollar una serie de niveles de riesgo, y los sistemas de IA de riesgo inaceptable se describen como una amenaza para las personas (estos riesgos estarán prohibidos). Los riesgos inaceptables incluyen:

  • La manipulación cognitiva, deliberada y conductual de humanos o grupos vulnerables específicos. Un ejemplo serían los juguetes activados por voz que alientan a los niños a realizar comportamientos peligrosos.
  • Puntuación social, el proceso de clasificar a las personas según su estatus socioeconómico, comportamiento o características personales.
  • El uso de sistemas de identificación biométrica remota y en tiempo real.

China no tiene las mismas consideraciones sobre la libertad de expresión que apoyan los gobiernos democráticos. Como consecuencia, sus prioridades en materia de IA son diferentes. Las medidas administrativas provisionales para los servicios de inteligencia artificial generativa Fue implementado el 15 de agosto de 2023. Estas regulaciones de control de IA requieren que las empresas que ofrecen servicios de IA generativa completen una evaluación de seguridad y una presentación de algoritmos. También exigen que los proveedores hagan esfuerzos para mejorar la precisión, objetividad, autenticidad y confiabilidad del contenido generado, y exigen su supervisión.

En términos generales, aquellos países que se preocupan por la gobernanza de la IA todavía están en el proceso de desarrollar leyes y regulaciones apropiadas.

Desarrollo de mejores prácticas de gobernanza de IA dentro de una empresa

Los directivos de empresas deberían considerar el impacto de la IA en sus clientes y empleados e implementar políticas para minimizar los riesgos y evitar causar daños. Al desarrollar un sistema de mejores prácticas de gobernanza de la IA, las empresas pueden apoyar el uso responsable de la inteligencia artificial para el avance de la humanidad. 

Las mejores prácticas incluyen:

Identificar materiales generados por IA: Muchos gobiernos están discutiendo el uso obligatorio de marcas de agua como una forma de distinguir el arte generado por IA. Para las organizaciones honestas y responsables, una marca de agua proporciona una manera fácil de comunicar que el arte fue creado por IA y no por un humano. El problema de las marcas de agua es que se pueden eliminar con bastante facilidad; Para aumentar el potencial de confusión y desinformación, se pueden agregar marcas de agua al arte creado por humanos. 

Las organizaciones honestas y responsables deberían incluir una marca de agua en cualquier arte generado por IA. Los artículos escritos por IA deben colocar "Generado por IA" en el lugar donde normalmente se encuentra el nombre del autor, independientemente de si la persona que inició el artículo quiere reclamar la autoría. (Hacer lo contrario es simplemente engañoso y engañoso.) 

Lidiar con los sesgos algorítmicos: Los sesgos y prejuicios no intencionales (o implantados en secreto) que están integrados en los algoritmos de una IA pueden tener un impacto en las prácticas de contratación y el servicio al cliente de una organización al utilizar datos demográficos como la raza o el género.

Para determinar si una IA está sesgada, pruébela. Pruébelo varias veces para detectar sesgos. Excel ha desarrollado Herramientas de análisis What-If (Goal Seek y Scenario Manager) que realizarán estas pruebas. Estas herramientas están diseñadas para promover la equidad y la equidad en los sistemas de IA. Garantizan que la IA funcione sin discriminación.

Seguridad del cliente: Hay dos tipos básicos de información de clientes que las empresas recopilan. El primero lo proporciona directamente el cliente e incluye datos como la dirección de su casa y su número de teléfono, posiblemente una fecha de nacimiento. Todo el mundo está de acuerdo en que esta información debe estar segura y protegida.

La inteligencia artificial se puede combinar con la gobernanza de datos para respaldar las leyes de seguridad y privacidad de datos. Al desarrollar un programa de gobernanza de datos y reglas de seguridad respaldados por IA, una empresa puede reducir significativamente los riesgos de datos robados y explotados. 

La segunda forma de información del cliente es comprado a otras organizaciones e incluye datos que van desde patrones de compras en línea hasta actividad en las redes sociales. Este tipo de información (denominada “datos de terceros”) se recopila con la intención de manipular a una persona para que realice una compra. 

A la mayoría de las personas no les gusta la idea de que se observen y exploten sus preferencias y necesidades personales. Las empresas honestas y responsables no deberían apoyar el uso de inteligencia artificial para manipular humanos, ni datos de terceros en general.

Desarrollar una filosofía de “no hacer daño” al utilizar la IA: Hay empresas cuyo único objetivo son los beneficios a corto plazo, en las que el engaño está bien, siempre que genere beneficios. ¿Pero harías negocios con ellos más de una vez? En la búsqueda continua de ganancias, puede resultar fácil perder de vista el panorama general.

Cuando se incluye la ética en el modelo de negocio, se desarrolla una filosofía de no hacer daño. La información honesta y precisa rara vez daña la base de clientes de una empresa, pero el engaño o el robo generalmente resultan en la pérdida de cualquier negocio futuro con ese cliente. Además, la información precisa agiliza la eficiencia y el flujo de la sociedad en general, lo que a su vez promueve el avance de la humanidad. La introducción de información errónea puede provocar caos y confusión. 

La inteligencia artificial se puede utilizar para promover el caos y la confusión, o se puede utilizar con fines de buena comunicación. 

Desarrollar un código de ética tanto para la organización como para la IA: Un código de ética para el gobierno de la IA debe describir el deseo y el compromiso de la organización con un comportamiento ético. Este código de ética puede incluir el compromiso de "utilizar inteligencia artificial para proporcionar información precisa" y "la inteligencia artificial no se utilizará para crear o distribuir información errónea".

La creación de un código ético de gobernanza de la IA ayuda a una organización a establecer estándares claros de comportamiento. Si se pone a disposición del público, el código de ética de una empresa puede ayudar a desarrollar la confianza de los clientes y partes interesadas, mitigar los riesgos legales y demostrar responsabilidad social.

Los informes sobre el administrador de datos y la ética de la IA: Un programa de gobernanza de la IA debe incluir una serie de políticas y procedimientos que respalden las preocupaciones éticas. Una de estas políticas debería requerir informes éticos programados periódicamente, y la administrador de datos Parece ser una persona apropiada para asignarle esta responsabilidad. Al crear un mecanismo de presentación de informes sobre el uso ético de la inteligencia artificial de la organización, la alta dirección puede garantizar la rendición de cuentas. Las auditorías de rutina también pueden ayudar a identificar posibles problemas legales y promover el cumplimiento. 

Estas medidas fortalecen colectivamente la implementación de un programa de gobernanza de IA y promueven prácticas responsables de IA en toda la organización.

Educar a la gerencia y al personal: La creación de un programa integral de gobernanza de la IA requiere que todo el personal y la gerencia comprendan el código de ética y los objetivos a largo plazo de la organización. El proceso educativo garantiza que todo el personal trabaje para lograr los mismos objetivos y que nadie del personal trabaje equivocadamente en contra de esos objetivos.

El uso de algoritmos en la gobernanza de la IA

Si nosotros, como seres humanos, encontramos una manera de separar e identificar la información precisa de la información errónea, podríamos desarrollar algoritmos que impidan que la inteligencia artificial realice actos delictivos y distribuya información errónea.

punto_img

Información más reciente

punto_img