Logotipo de Zephyrnet

Impulsar la innovación en las finanzas a través de una IA confiable

Fecha:

La inteligencia artificial (IA) se está convirtiendo rápidamente en una herramienta esencial para la industria de servicios financieros.

La gobernanza responsable jugará un papel importante en el despliegue exitoso de la IA

Según el informe AI in Banking de Insider Intelligence, la mayoría de los bancos (80%) son muy conscientes de los beneficios potenciales que presenta la IA.

Las oportunidades en este espacio son innumerables, pero las soluciones de IA requieren una gobernanza cuidadosa, con los controles y equilibrios adecuados para garantizar que sean sólidas y justas.

Aplicaciones de herramientas de IA en servicios financieros

El alcance de los posibles usos de la IA y el aprendizaje automático en las finanzas se extiende a través de funciones y sectores comerciales. Solo en el espacio de los servicios financieros, las herramientas de IA ya se utilizan para perfeccionar el servicio al cliente, la segmentación de clientes, la prevención del fraude y la evaluación de préstamos, por nombrar solo algunos.

Atención al cliente: Cuando se trata de servicio al cliente, muchos bancos ahora buscan chatbots de IA para permitir interacciones de servicio al cliente las 24 horas del día, los 7 días de la semana. Estos bots usan inteligencia artificial y aprendizaje automático para responder preguntas básicas de los clientes a través de una interfaz de mensajería instantánea, respondiendo rápidamente y guardando las entradas de los usuarios para que los operativos las revisen si es necesario.

Como resultado, pueden brindar información y soporte rápidos y relevantes a cada usuario e impulsar interacciones personalizadas. A medida que estas herramientas se vuelven cada vez más sofisticadas, este tipo de soporte puede generar una mayor satisfacción tanto para los clientes, que reciben un soporte más rápido, como para los empleados, que pueden ser más eficientes con su tiempo.

Por ejemplo, el laboratorio de tecnología del gigante de gestión de inversiones Fidelity en Irlanda ha creado un asistente virtual multilingüe impulsado por IA que analiza y responde preguntas basadas en texto en lenguaje natural para los más de 30 millones de inversores de la empresa.

Segmentación de clientes: La IA también se puede aplicar a la segmentación de clientes, que es el proceso de dividir a los clientes en función de características comunes, como la demografía o el comportamiento. Aquí, la IA puede buscar patrones dentro de los datos del cliente rápidamente y a gran escala, creando resultados que de otro modo serían inalcanzables por medios manuales.

La creación de segmentos de usuarios permite a los especialistas en marketing financiero centrar su alcance: dirigirse a los clientes adecuados con los productos y servicios adecuados. La personalización de la experiencia en los canales y dispositivos preferidos de los usuarios, un paso más que se puede trabajar en este proceso de segmentación, también puede aumentar significativamente el compromiso con la marca y la satisfacción del cliente.

Deutsche Bank, por ejemplo, aprovecha la segmentación de clientes impulsada por IA para mejorar y adaptar su oferta para los clientes. En los últimos años, el banco comenzó a implementar soluciones de IA en su franquicia de Servicios de Valores, lo que le ayudó a identificar grupos de clientes que se adaptan a ciertos tipos de servicios en función de sus patrones de comportamiento. Al igual que Fidelity, el banco también tiene un chatbot con IA, Debbie, que responde en tiempo real a las solicitudes de los clientes, como consultas sobre el estado de liquidación.

Evaluación de préstamos y prevención del fraude: Esta misma capacidad de reconocimiento de patrones significa que la IA también puede analizar y señalar transacciones irregulares que de otro modo pasarían desapercibidas para los humanos pero que pueden indicar la presencia de fraude. Esto lo convierte en una excelente herramienta para que los bancos evalúen los riesgos de los préstamos, detecten y prevengan el fraude en los pagos y mejoren los procesos contra el lavado de dinero.

La solución Identity Check de Mastercard desarrollada en Dublín, por ejemplo, utiliza capacidades de aprendizaje automático para verificar más de 150 variables como parte del proceso de transacción para ayudar a reducir el fraude, facilitando que los comerciantes acepten pagos en línea.

Estos son solo algunos ejemplos de cómo la IA ya se puede aplicar en los servicios financieros. A medida que la tecnología continúa avanzando, la cantidad de casos de uso continuará creciendo.

Tomando medidas responsables

A la par de este aumento en el uso de la IA, es importante que se establezcan controles sobre cómo se configura y aplica la IA para garantizar que los sistemas sean sólidos, justos y seguros.

Los proveedores de servicios financieros son responsables de garantizar que sus datos sean confiables y de alta calidad. Necesitan comprender las implicaciones y el impacto de su tecnología. Dada la complejidad y la escala de las tareas que generalmente se le asignan a la IA, existe un peligro real de que los modelos puedan salir mal. Sin la orientación necesaria y la capacitación adecuada, la IA puede generar respuestas que conducen a decisiones sesgadas sin saberlo, por ejemplo, con consecuencias potencialmente dañinas.

Este no es solo un ejercicio de gestión de riesgos: cuando se realiza de manera adecuada y se comunica con claridad, contar con un buen gobierno también puede impulsar el negocio y la lealtad. Un estudio reciente de Capgemini encontró que el 62 % de los consumidores confiaba más en una empresa cuya IA se entendía como ética, mientras que el 61 % era más probable que recomendara esa empresa a amigos y familiares y el 59 % mostraba más lealtad a esa empresa.

Entonces, ¿cómo hacen las empresas para garantizar que sus soluciones de IA estén estrictamente controladas? Comienza con tener una comprensión completa del modelo y garantizar que los controles sean proporcionales a la importancia de los resultados.

  1. modelo explicable

Garantizar esta gobernanza sólida comienza con la comprensión del modelo. Cada vez que un algoritmo de IA genera un resultado, es fundamental que la empresa pueda explicar, ya sea a los clientes, a la alta dirección o solo a sí misma, qué significa ese resultado y cómo se llegó a él.

Para muchas áreas de aplicación en los servicios financieros, los humanos permanecerán al tanto de los escenarios críticos de toma de decisiones donde la responsabilidad recaerá en el algoritmo para generar confianza. Los investigadores están trabajando arduamente para desarrollar estos algoritmos de IA explicables que pueden proporcionar una justificación para su resultado y transparencia en torno a sus limitaciones, al mismo tiempo que funcionan con la misma eficacia que las soluciones de "caja negra" más complejas y menos transparentes, como el aprendizaje profundo.

A medida que las empresas de servicios financieros trasladan los modelos de IA del laboratorio al mundo exterior, también es importante contar con un equipo de operarios humanos en el circuito del sistema, monitoreando y analizando las entradas y los resultados y asegurándose de que la herramienta esté procesando, aprendiendo y funcionando correctamente y como se esperaba.

Las nuevas prácticas de ingeniería de software como MLOps (gestión de la operacionalización del modelo de aprendizaje automático) se centran en optimizar la entrega de soluciones de aprendizaje automático desde el laboratorio hasta la producción. La supervisión y el mantenimiento adecuados de los modelos de IA a lo largo del tiempo son importantes para evitar cualquier posible degradación de los resultados o el descubrimiento de problemas imprevistos.

Por ejemplo, investigadores de la Universidad de Stanford y la Universidad de Chicago llevaron a cabo un estudio de datos hipotecarios del mundo real y descubrieron que las diferencias en las aprobaciones de hipotecas entre grupos mayoritarios y minoritarios no solo se debían al sesgo, sino también al hecho de que las minorías y los grupos de bajos ingresos Los grupos tienen menos datos de historial crediticio, lo que dificulta que el algoritmo prediga el riesgo de incumplimiento del préstamo. Este estudio demuestra los desafíos que enfrentan las empresas al garantizar la confiabilidad de su modelo de IA internamente, para el público y el regulador.

  1. Materialidad

El nivel de escrutinio al que está sujeto un modelo de IA también debe adaptarse de acuerdo con las consecuencias de sus resultados. Esto se basa en un concepto conocido como "materialidad", es decir, la gravedad de las consecuencias negativas asociadas con una salida de IA errónea.

Por ejemplo, la materialidad es mayor cuando una herramienta de IA determina el acceso de las personas a instalaciones que cambian la vida, como préstamos o tarjetas de crédito, que cuando simplemente clasifica a los clientes en diferentes segmentos para ayudar con la orientación de marketing o ventas. El principio simple aquí es que, a medida que aumenta la materialidad de un resultado de IA, también debe hacerlo el rigor de los controles establecidos para garantizar que el resultado sea correcto.

El control más fundamental en este sentido vuelve al primer punto, que es la necesidad de tener un modelo explicable. Los humanos deben poder explicar cómo funciona el modelo de IA y derivar sus resultados. Y a medida que aumenta la materialidad de un resultado, la carga de la explicabilidad relacionada con ese modelo aumenta al mismo tiempo.

Esta gradación de riesgo ha sido capturada en el proyecto de reglamento de la UE para la IA que clasifica los sistemas de IA en tres categorías: riesgo inaceptable (p. ej., sistemas de puntuación social); alto riesgo (por ejemplo, calificación crediticia); y riesgo limitado (por ejemplo, segmentación de clientes). Es probable que la mayoría de las aplicaciones de IA en los servicios financieros entren en la categoría de alto riesgo, y se recomienda a las empresas que estén preparadas para la regulación mucho antes de la aplicación de la nueva regulación.

Un futuro brillante

A medida que las aplicaciones de IA se vuelvan más poderosas y generalizadas, la buena gobernanza y los controles efectivos jugarán un papel cada vez más importante. Llevar las aplicaciones de IA a la mesa sin comprometer estas responsabilidades significará mantenerse informado sobre cómo funcionan estos modelos, qué contribuyen al proceso de toma de decisiones, qué riesgos están involucrados y qué tan grande podría ser el impacto de cualquier error en el sistema.

Un primer paso natural para las empresas que se embarcan en su viaje de IA es centrarse primero en soluciones de baja materialidad, asegurando que la gobernanza sea lo suficientemente sólida y "probada en la práctica" para mitigar cualquier riesgo de nivel superior de soluciones más ambiciosas.

Podemos esperar un futuro brillante para la IA en los servicios financieros, y la gobernanza responsable de las soluciones jugará un papel importante en su implementación exitosa. Al mantener los modelos ajustados a sus tareas y libres de sesgos y errores, esto garantizará los mejores resultados para todos.

punto_img

Información más reciente

punto_img