Logotipo de Zephyrnet

Tercera parte: La seguridad de la IA puede hacer o deshacer una institución financiera (Michael Boukadakis)

Fecha:

“Para aprovechar plenamente el potencial de la IA, tenemos que mitigar sus riesgos”, dijo recientemente la Oficina de Política Científica y Tecnológica de la Casa Blanca.
tuiteó. “Es por eso que estamos entusiasmados con el lanzamiento del marco de gestión de riesgos de IA de @NIST…”

NIST, conocido formalmente como el Instituto Nacional de Estándares y Tecnología del Departamento de Comercio de EE. UU., lanzó su Marco el 26 de enero para ayudar a los innovadores a gestionar los muchos riesgos de la tecnología de inteligencia artificial, que se entrena a través de datos sobre cosas como el comportamiento humano.

En el contexto del servicio al cliente de la banca minorista, esos datos de comportamiento deben combinarse con los detalles de la cuenta del usuario y la información de identificación personal (PII) para que la IA cree las interacciones personalizadas que elevan la experiencia del cliente (CX) de una institución financiera. Por lo tanto, la recopilación y el uso de las entradas de datos necesarias para que la tecnología de IA haga su trabajo en los servicios financieros deben salvaguardarse al máximo.

La seguridad es el último de los cuatro pilares explorados en esta serie, que juntos respaldan la experiencia del cliente transformada y en evolución que los líderes de bancos y cooperativas de crédito deben esperar de sus inversiones en IA:

  • Tecnología de IA.
  • Acceso a datos de calidad (ver Parte I de esta serie).
  • Soluciones de experiencia del cliente que permiten la capacidad de respuesta, la interacción natural y la retención del contexto (ver Parte II de esta serie).
  • Seguridad para inscripción, autenticación y detección de fraude

Cuatro de cada cinco altos ejecutivos bancarios esta de acuerdo que desbloquear el valor de la inteligencia artificial distinguirá a los de mejor desempeño de los de bajo desempeño. Sin embargo, Los banqueros identificaron preocupaciones de privacidad y seguridad, en el último The Economist Intelligence Unit Peritaje, como la barrera más destacada para adoptar e incorporar tecnologías de IA en su organización. 

Los chatbots experimentados y basados ​​en reglas requieren menos privacidad y protección que los bots respaldados por IA, porque están limitados a responder preguntas básicas de tipo horario y ubicación. Los bots de última generación, como Erica del Bank of America (que ayudó a

32 millones de
usuarios), abrir completamente el autoservicio. Estos asistentes virtuales inteligentes (IVA) pueden brindar asesoramiento financiero y completar comandos que requieren autenticación, como programar pagos, realizar transferencias, compilar informes y mucho más. ¿La mejor parte? Se vuelven más inteligentes con el tiempo a través de un ciclo de aprendizaje permanente que acumula datos durante cada interacción. Datos más accesibles y de calidad significan una IA de mejor rendimiento, pero la participación de toda esta información confidencial requiere medidas de seguridad estrictas.

Si bien puede parecer que los chatbots son vulnerables a los ataques subrepticios, en realidad brindan una mayor seguridad que los agentes humanos que manejan las solicitudes de servicio. Durante estas interacciones de autoservicio impulsadas por IA, los datos se mueven entre el usuario, el bot y los sistemas back-end, lo que elimina los puntos de contacto humanos, lo que reduce la probabilidad de fallas en el proceso y de que la información confidencial se vea comprometida por accidente o, lamentablemente, a propósito. Además, los IVA diseñados inteligentemente hacen un mejor trabajo que los humanos para frustrar los ataques de los estafadores que se hacen pasar por titulares de cuentas. De hecho, son expertos altamente capacitados en la detección de actividad sospechosa mediante el reconocimiento de patrones y anomalías. La automatización de AI de los controles de fraude aumenta la seguridad general de la banca de consumo.

A pesar de lo poderosa que puede ser la inteligencia artificial como ventaja competitiva en la banca, la falta de medidas de seguridad sólidas es un fracaso. Sin ellos, los líderes de bancos y cooperativas de crédito ponen en peligro el dinero, la privacidad y la lealtad de sus clientes y miembros, así como los activos, los recursos y la reputación de su institución financiera. Para seguir siendo competitivas, las IF deben brindarles a los clientes y miembros la tranquilidad de saber que sus datos y su dinero están completamente protegidos.

Es importante comprender que el marco del NIST es un voluntario documento de orientación para organizaciones que diseñan, desarrollan, implementan o usan sistemas de IA. No todos los sistemas de IA se construyen de manera responsable. Al elegir soluciones CX impulsadas por IA, asegúrese de que los estándares de seguridad de la tecnología estén a la altura para su uso en la industria de servicios financieros.

Si se hace mal, la tecnología de IA puede poner en riesgo el futuro de una institución financiera. Si se hace bien, las soluciones CX impulsadas por IA, que mejoran la satisfacción y la lealtad del cliente, pueden consolidar el papel de una institución financiera como futuro líder del mercado.

punto_img

Información más reciente

punto_img