Logotipo de Zephyrnet

¿Cuál es la diferencia entre la ética de la IA, la IA responsable y la IA confiable? Preguntamos a nuestros líderes responsables de IA – MassTLC

Fecha:

La IA está en todas partesconducir autosdiagnosticar enfermedadestomando decisiones de créditoclasificación de candidatos a puestos de trabajoidentificando rostrosevaluando a las personas en libertad condicional. Estos titulares por sí solos deberían ser suficientes para convencerle de que la IA está lejos de ser ética. No obstante, términos como “IA ética” prevalecen junto a términos igualmente problemáticos como “IA confiable”.

¿Por qué son tan espinosas estas frases? Después de todo, son sólo palabras: ¿qué tan peligrosas pueden ser? Bueno, para decir lo obvio, las palabras importan, y si alguna vez queremos lograr un futuro en el que la IA sea digna de nuestra confianza, al menos debemos acordar un vocabulario común.

Para explicar las diferencias entre estos términos y por qué son importantes, hablamos con los copresidentes de la Consejo Asesor de Ética de IA en el Institute for Experiential AI (EAI): Cansu Canca y Ricardo Baeza-Yates.

El problema de la “IA confiable”

 Ricardo Baeza Yates, que también es director de investigación de EAI, todo se reduce a una distinción fundamental entre las capacidades humanas y computacionales. La inteligencia artificial no es humana, por lo que debemos evitar términos como “IA confiable” que no solo humanizan la IA sino que también implican un nivel de confiabilidad que simplemente no existe.

"Sabemos que la IA no funciona todo el tiempo, por lo que pedir a los usuarios que confíen en ella es engañoso", explica Baeza-Yates. “Si hace 100 años alguien quisiera venderme un billete de avión llamándolo “aviación confiable”, me habría preocupado, porque si algo funciona, ¿por qué tenemos que agregarle “digno de confianza”? Esa es la diferencia entre ingeniería y alquimia”.

Cansu Canca, líder de ética en EAI, agrega que la “IA confiable” parece dirigir la atención al objetivo final de generar confianza en el usuario. Al hacerlo, se evita el arduo trabajo de integrar la ética en el desarrollo y la implementación de sistemas de IA, lo que supone una carga para el usuario.

"La confianza es realmente el resultado de lo que queremos hacer", afirma. “Nuestra atención debería centrarse en el sistema en sí, y no en el sentimiento que, con suerte, eventualmente evocará”.

El problema de la “IA ética”

La IA ética enfrenta un problema similar en el sentido de que implica cierto grado de agencia moral. Humanos  la intención de ciertos resultados éticos. Pueden emitir juicios de valor y reorientar su comportamiento para tener en cuenta objetivos que no se traducen en el mundo de los algoritmos.

"La IA puede tener un resultado ético o no ético", dice Cansu. “Puede incorporar juicios de valor, pero no es un ser ético con intención. No es un agente moral”.

La ética, en ese sentido, es estrictamente dominio de los seres humanos. Los desafíos surgen cuando las personas comienzan a diseñar sistemas con capacidades autónomas de toma de decisiones, porque esos sistemas son tan éticos como la intención de las personas que los crean.

IA responsable

Tanto Ricardo como Cansu prefieren el término “IA responsable”, aunque reconocen que también es imperfecto. “La responsabilidad también es un rasgo humano, pero el derecho ha extendido el concepto de responsabilidad a las instituciones, por eso lo utilizamos en ese sentido”, afirma Ricardo.

"En cierto modo, 'IA responsable' es una abreviatura de desarrollo y uso responsable de la IA, o innovación responsable de la IA", añade Cansu. “La frase todavía está abierta a la interpretación de que la propia IA tendrá alguna responsabilidad, lo que ciertamente no es lo que queremos decir. Estamos tratando de enfatizar que la IA responsable consiste en crear estructuras y roles para desarrollar la IA de manera responsable, y que la responsabilidad siempre recaerá en estas estructuras y en las personas que diseñan los sistemas”.

Cansu y Ricardo ven la ética de la IA como un componente de la IA responsable. Dentro de ese subdominio encontramos la eterna pregunta ética: "¿Qué es lo correcto?" Y en el ámbito más amplio que lo rodea encontramos espacio para la innovación: un espacio exploratorio e interdisciplinario para diseñadores, desarrolladores, inversores y partes interesadas que en última instancia (con suerte) apunta hacia un núcleo ético.

"Nosotros, los filósofos, colaboramos con desarrolladores y diseñadores para encontrar los riesgos éticos y mitigarlos a medida que desarrollan sistemas de IA y diseñan productos de IA", dice Canca.

Tal es el mandato del Consejo Asesor de Ética de IA en EAI, un panel multidisciplinario bajo demanda de expertos en IA que representan a la industria, el mundo académico y el gobierno. Tanto con filósofos como con profesionales, la junta sirve para ayudar a las organizaciones a anticipar peligros éticos sin caer en la trampa de pensar que la propia IA alguna vez podría tener agencia moral.

Averiguar como El Consejo Asesor de Ética de la IA ayuda a las organizaciones a abordar cuestiones éticas difíciles durante la planificación, el desarrollo y la implementación de la IA.

Vea a Canca y Baeza-Yates hablar más sobre IA responsable, ética de la IA e IA confiable en este charla informal.

punto_img

Información más reciente

punto_img