Logotipo de Zephyrnet

Pregúntele a un especialista en ética de datos: ¿Podemos confiar en una IA inexplicable? – VERSIDAD DE DATOS

Fecha:

En el mes pasado visión de conjunto, pedí a los lectores que enviaran sus "grandes preguntas" sobre datos e inteligencia artificial. ¡La pregunta de este mes respondió con creces a ese llamado! Abarca las enormes áreas de confianza en las herramientas de IA y la explicabilidad.

¿Cómo podemos saber si una herramienta de IA está dando un resultado ético si no tenemos idea de cómo llega a sus respuestas?

Antes de responder directamente a la pregunta, hay algunas cosas importantes que debemos abordar primero:

La IA no es una sola cosa

Hay toda una gama de tecnologías que se comercializan bajo el paraguas de la IA, desde tecnologías de reconocimiento facial que utilizan visión por computadora hasta sistemas de recomendación y herramientas tipo chatbot con modelos de lenguaje de gran tamaño como ChatGPT, por nombrar sólo algunas. Las formas específicas en que funcionan estas tecnologías y para qué se utilizan influyen en la cuestión de la explicabilidad y la confianza. En términos generales, el aprendizaje automático implica encontrar patrones en una gran cantidad de datos para producir un resultado. Hay una serie de preocupaciones éticas generales relacionadas con ese proceso. Sin embargo, para abordar plenamente la cuestión debemos intentar ser lo más específicos posible sobre qué herramienta de IA estamos discutiendo.

Ética en contexto

Al igual que el término IA, la ética también cubre una amplia gama de cuestiones y, dependiendo de la situación particular, ciertas preocupaciones éticas pueden volverse más o menos prominentes. Para usar un ejemplo extremo, a la mayoría de las personas les importará menos su privacidad en una situación de vida o muerte. En una situación de persona desaparecida, la principal preocupación es localizar a esa persona. Esto podría implicar utilizar todos los medios posibles para encontrarlos, incluida la divulgación de mucha información personal a los medios de comunicación. Sin embargo, cuando se localiza a la persona desaparecida, toda la publicidad sobre la situación debería ser removido. La cuestión ética ahora se centra en garantizar que la historia no siga a la víctima a lo largo de su vida, introduciendo un posible estigma. En este ejemplo, lo ético que se debe hacer cambia completamente a la luz de las circunstancias contextuales.

Agencia humana y explicaciones

Para que una persona ejerza su albedrío y rinda cuentas como Agente moral, es importante tener cierto nivel de comprensión sobre una situación. Por ejemplo, si un banco niega un préstamo, debe explicar al solicitante cómo se tomó esa decisión. Esto garantiza que no se basó en factores irrelevantes (usted usaba calcetines azules) o factores fuera del control de una persona (raza, edad, género, etc.) que podrían resultar discriminatorios. La explicación debe ser razonable y comprensible para la persona que la requiere. Por lo tanto, dar una explicación muy técnica a un profano será inadecuado. También hay un aspecto de dignidad humana en las explicaciones. Respetar a las personas significa tratarlas con dignidad. 

Los elementos de la confianza

La confianza es multifacética. Nuestra sociedad ha construido infraestructuras que ayudan a generar confianza en el uso de las tecnologías. Por ejemplo, en la década de 1850, cuando el ascensor era una nueva tecnología, fue diseñado de maneras que no siempre fueron seguras. Las cuerdas se utilizaban como cables y podían deshilacharse y romperse. Con el tiempo, vimos mejores diseños y además tenemos un proceso para supervisar las operaciones de los ascensores. Existen leyes que exigen controles de seguridad periódicos. ¿Cómo sabemos que se realizan los controles de seguridad? Confiamos en el sistema que exige el cumplimiento. Ya no necesitamos preguntarnos si llegaremos sanos y salvos al piso 77 antes de entrar en la pequeña caja de metal. La confianza, en este caso, es una construcción de tecnología confiable y diseñada de manera segura, así como de sistemas apropiados de supervisión y gobernanza.

A nuestra pregunta...

Con estos elementos en mente, profundicemos en nuestra pregunta. La respuesta muy breve y probablemente insatisfactoria a la pregunta es "no podemos saberlo con seguridad". Sin embargo, intentemos completar algunos de los detalles sobre la herramienta y el contexto que nos ayudarán a llegar a una respuesta más útil.

Supongamos que somos usuarios finales y estamos utilizando una herramienta de inteligencia artificial generativa para ayudarnos a crear contenido para una presentación que damos en el trabajo. ¿Cómo podemos asegurarnos de que estamos tomando buenas decisiones para poder utilizar esta herramienta de manera responsable en este contexto?

Ética de cómo se hace

Hay cuestiones éticas relacionadas con la IA generativa que nosotros, como usuario final, no podemos abordar. La mayor parte de la IA generativa se creó utilizando datos adquiridos cuestionablemente desde Internet. Incluye datos sesgados y no representativos. También hay problemas de la cadena de suministro laboral y cuestiones medioambientales relacionado con el entrenamiento de modelos de lenguaje grandes. Es más, no es posible (actualmente) tener interpretabilidad – una comprensión técnica detallada de un modelo de lenguaje grande. Para un profano, podría ser una explicación suficiente comprender que un modelo de lenguaje grande utiliza métodos probabilísticos para determinar la siguiente palabra que parece plausible y que siempre intentará proporcionar una respuesta incluso si la respuesta no es precisa. 

Como usuario final, no abordará ninguna de estas cuestiones éticas. Lo mejor que puedes hacer es decidir si aún quieres usar la herramienta o no, teniendo en cuenta cómo se hizo. Con el tiempo, mi esperanza es que algunas empresas diseñen herramientas mejores y más responsables que aborden estos problemas o que las regulaciones exijan que se solucionen. 

Uso responsable de la IA

Suponiendo que decida continuar, el siguiente paso es asumir la responsabilidad de los resultados. Esto significa saber que la IA generativa no entiende nada. Ha habido muchas historias sobre cómo la herramienta "alucina" y por qué no debería usarse para cosas de alto riesgo como trabajo legal. Dada esta información, ¿dónde tiene sentido que utilices la herramienta de IA generativa? Quizás ayude con la lluvia de ideas. Tal vez pueda crear un esquema o ayudarte con un primer borrador. 

También existen diferencias entre la IA generativa que pueden hacer que su uso sea más o menos seguro. Por ejemplo, es probable que una solución empresarial implementada dentro de los límites de su empresa tenga más privacidad y otras barreras de seguridad que una herramienta pública como ChatGPT. Si está utilizando una herramienta empresarial, puede preguntar al departamento de TI de su empresa qué diligencia debida se llevó a cabo antes de adoptar la herramienta. (Pista: si está adquiriendo IA, ¡debería hacer preguntas difíciles a los proveedores y actuar con la debida diligencia!) Además, su empresa debería tener Policias y procedimientos para utilizar las herramientas de acuerdo con sus expectativas.

También puede volver a verificar las salidas. Puede utilizar otras fuentes para verificar la información. Si está generando imágenes, puede utilizar indicaciones específicas para asegurarse de obtener una mayor diversidad de representación. Ser consciente de los estereotipos y asegúrese de no pedirle al sistema que genere una imagen que sea derechos de autor

Finalmente, ¿qué está en juego en este trabajo? ¿Es para una presentación interna o el contenido generado se utilizará en una campaña publicitaria nacional? Cuanto más hay en juego, más diligencia debida y revisión se debe hacer, incluida la participación de partes interesadas externas en algo que podría tener impactos importantes.

¡Envíame tus preguntas!

Lo haría amar para conocer sus dilemas sobre datos o preguntas y dilemas sobre ética de la IA. Puedes enviarme una nota a hola@ethicallyalignedai.com o conéctate conmigo en Etiqueta LinkedIn. Mantendré todas las consultas confidenciales y eliminaré cualquier información potencialmente confidencial, así que siéntase libre de mantener las cosas en alto nivel y también en el anonimato. 

punto_img

Información más reciente

punto_img