Logotipo de Zephyrnet

Trabajando hacia una IA explicable

Fecha:

“Lo más difícil de entender en el mundo es el impuesto a la renta”. Esta cita
proviene del hombre que ideó la teoría de la relatividad, no exactamente el
concepto más fácil de entender. Dicho esto, si hubiera vivido un poco más, Albert
Einstein podría haber dicho "IA" en lugar de "impuesto sobre la renta".

Einstein murió en 1955, un año antes de lo que se considera el primer programa de inteligencia artificial. Teórico de la lógica – fue presentado en el Proyecto de investigación de verano de Dartmouth sobre inteligencia artificial. A partir de entonces, el concepto general de máquinas pensantes se convirtió en un elemento básico del entretenimiento popular, desde Robby the Robot hasta HAL. Pero los detalles esenciales de la IA siguen siendo al menos tan difíciles de entender como el impuesto sobre la renta para la mayoría de las personas. Hoy el Explicabilidad de la IA El problema sigue siendo un hueso duro de roer, que pone a prueba incluso el talento de los expertos. El quid de la cuestión es encontrar una respuesta útil a esto: ¿Cómo llega la IA a sus conclusiones y predicciones?

UTILICE ANÁLISIS Y APRENDIZAJE AUTOMÁTICO PARA RESOLVER PROBLEMAS EMPRESARIALES

Aprenda nuevas habilidades de análisis y aprendizaje automático que puede poner en acción de inmediato con nuestro programa de capacitación en línea.

Se necesita mucha experiencia para diseñar redes neuronales y aún más para que funcionen de manera eficiente: "E incluso cuando se ejecutan, son difíciles de explicar", dice Sheldon Fernandez, director ejecutivo de DarwinAI. La plataforma de diseño asistido por IA de síntesis generativa de la compañía, GenSynth, está diseñado para proporcionar información granular sobre el comportamiento de una red neuronal (por qué decide lo que decide) para ayudar a los desarrolladores a mejorar sus propios modelos de aprendizaje profundo.  

Abriendo la “caja negra” de La IA es crítica a medida que la tecnología afecta a más y más industrias: atención médica, finanzas, manufactura. “Si no sabes cómo algo toma sus decisiones, no sabes dónde fallará y cómo corregir el problema”, dice Fernández. También señala que los mandatos regulatorios son un impulso para poder brindar cierto nivel de explicación sobre los resultados de los modelos de aprendizaje automático, dado que la legislación como GDPR exige que las personas tengan derecho a una explicación para la toma de decisiones automatizada.

Los grandes jugadores se centran en la explicabilidad de la IA

El problema de la explicabilidad, también conocido como el problema de la interpretabilidad, es un foco para los peces gordos de la tecnología. En noviembre, Google anunció su próximo paso para mejorar la interpretabilidad de la IA con Explicaciones de IA de Google Cloud, que cuantifica la contribución de cada factor de datos al resultado de un modelo de aprendizaje automático. Estos resúmenes, dice Google, ayudan a las empresas a comprender por qué el modelo tomó las decisiones que tomó: información que se puede usar para mejorar aún más los modelos o compartir información útil con los consumidores del modelo.

“La IA explicable le permite a usted, un cliente que usa IA en un contexto empresarial o en un proceso comercial empresarial, comprender por qué la infraestructura de IA generó un resultado particular”, dijo el CEO de Google Cloud, Thomas Kurian. “Entonces, por ejemplo, si está utilizando IA para la calificación crediticia, desea poder comprender: '¿Por qué el modelo no rechazó una solicitud de crédito en particular y aceptó otra?' La IA explicable le brinda la capacidad de comprender eso”.

En octubre, Facebook anunció captura, una herramienta para explicar decisiones tomadas por redes neuronales con el marco de aprendizaje profundo PyTorch. “Captum proporciona herramientas de última generación para comprender cómo la importancia de neuronas y capas específicas afecta las predicciones hechas por los modelos”, dijo Facebook.

SageMaker Debugger de Amazon para su SageMaker El servicio gestionado para crear, ejecutar e implementar modelos de Machine Learning interpreta cómo funciona un modelo, "lo que representa un primer paso hacia la explicabilidad del modelo", según la empresa. Debugger fue una de las actualizaciones de herramientas para SageMaker que Amazon anunció el mes pasado. 

¿Qué tan lejos?
ha llegado la IA explicable?

En diciembre en NeurIPS 2019, DarwinAI presentó la investigación académica en torno a la cuestión de cómo las empresas pueden confiar en las explicaciones generadas por IA. El estudio que se explicó en el documento, ¿Las explicaciones reflejan decisiones? Una estrategia centrada en la máquina para cuantificar el rendimiento de los algoritmos de explicabilidad, exploró una estrategia más centrada en la máquina para cuantificar el rendimiento de los métodos de explicabilidad en redes neuronales convolucionales profundas.

El equipo detrás de la investigación cuantificó la importancia de los
factores identificados por un método de explicabilidad para una decisión dada tomada por un
la red; esto se logró mediante el estudio del impacto de los factores identificados en
la decisión y la confianza en la decisión.

Usando este enfoque en métodos de explicabilidad que incluyen LIME, SHAP, Expected Gradients y su técnica patentada GSInquire, el análisis:

“Mostró que, en el caso de tareas de percepción visual como la clasificación de imágenes, algunos de los métodos más populares y ampliamente utilizados, como LIME y SHAP, pueden producir explicaciones que pueden no ser tan reflexivas como se esperaba de lo que está aprovechando la red neuronal profunda. tomar decisiones. Los métodos más nuevos, como los gradientes esperados y GSInquire, funcionaron significativamente mejor en escenarios generales".

Dicho esto, el documento señala que hay un espacio significativo para
mejora en el área de explicabilidad. 

IA debe ser
Confiable

Gartner abordó el problema de la explicabilidad en su reciente reporte, Proveedores geniales en la gobernanza de la IA empresarial y la respuesta ética. “La adopción de IA se ve inhibida por problemas relacionados con la falta de gobernanza y las consecuencias no deseadas”, dijo la firma de investigación. Nombra como sus vendedores geniales a DarwnAI, Laboratorios Fiddler, KenSci, kyndi y lucd por su aplicación de enfoques novedosos para ayudar a las organizaciones a aumentar su gobernanza y explicabilidad de las soluciones de IA.

Las empresas perfiladas emplean una variedad de técnicas de IA para transformar los modelos ML de "caja negra" en modelos de "caja de cristal" más transparentes y más fáciles de entender, según Gartner:

“La capacidad de confiar en las soluciones basadas en IA es fundamental para gestionar el riesgo”, dice el informe, que aconseja a los responsables de las iniciativas de IA como parte de los programas de datos y análisis “que prioricen el uso de plataformas de IA que ofrecen gobernanza adaptativa y explicabilidad para apoyar la libertad y la creatividad. en equipos de ciencia de datos, y también para proteger a la organización de riesgos reputacionales y regulatorios”.

Gartner
predice que para 2022, los proyectos de inteligencia artificial empresarial con transparencia incorporada
tener un 100 % más de probabilidades de obtener financiación de los CIO.

Explicable
IA para todos

La explicabilidad no es solo para ayudar a los desarrolladores de software
entender a nivel técnico lo que sucede cuando un programa de computadora
no funciona, sino también para explicar los factores que influyen en las decisiones de una manera
eso tiene sentido para los usuarios no técnicos, dice Fernández: por qué su hipoteca
fue rechazado, por ejemplo. Es "explicabilidad en tiempo real".

Apoyar esa necesidad solo crecerá en importancia a medida que
los consumidores se ven cada vez más afectados por la IA en sus transacciones diarias.
Los seguidores están pisando los talones de las industrias de adopción temprana como
automotriz, aeroespacial y electrónica de consumo. “Están empezando a darse cuenta
que la inversión en IA se está convirtiendo en una necesidad existencial”, dice
Fernández.

La IA ya está transformando la industria de los servicios financieros, pero aún no ha llegado a todos sus rincones. Eso está empezando a cambiar. Como ejemplo, Fernández señala que incluso los jugadores más conservadores reciben el mensaje:

"Los bancos en Canadá rara vez adoptan tecnologías nuevas y emergentes", dice, "pero ahora estamos hablando con dos de los Cinco Grandes que saben que tienen que moverse rápidamente para ser relevantes para los consumidores y cómo hacen negocios".

DarwinAI tiene planes para mejorar significativamente su solución
capacidades de explicabilidad con una nueva oferta en los próximos meses.

Imagen utilizada bajo licencia de
Shutterstock.com

punto_img

Información más reciente

punto_img