Logotipo de Zephyrnet

Lidiando con Deepfakes en Fintech

Fecha:


Los deepfakes, o medios sintéticos que usan IA para distorsionar la imagen de una persona para imitar a otra, pueden ser entretenidos. Después de todo, viendo evolucionar a Ross Marquand ¡En 11 actores diferentes en 3 minutos es impresionante!

Sin embargo, como la mayoría sabe, hay un lado oscuro de las falsificaciones profundas cuando los videos amenazan la democracia al manipular al público con fines políticos, o arruinan las reputaciones con venganza pornográfica o difunden información errónea perjudicial. En general, hay dos problemas con los deepfakes maliciosos. Primero, los deepfakes tienen el potencial de permitir que una persona se haga pasar por alguien que no es. En segundo lugar, permiten que los delincuentes nieguen una fechoría al afirmar que un video genuino es falso.

Desafortunadamente, la industria fintech no está aislada de sus propios dolores de cabeza falsos.

El problema

Hay dos tipos diferentes de deepfakes: audio y video. Ambos tipos de medios pueden manifestar múltiples problemas dentro de los servicios financieros. Aquí hay una lista de puntos débiles que amenazan los falsos profundos:

  • Incorporación fraudulenta, como un criminal que se hace pasar por otra persona o que crea una nueva identidad sintética
  • Autorizaciones de pago y transferencias fraudulentas
  • Suplantación de identidad de líderes empresariales por estafas de información privilegiada o engañar a los empleados para que tomen medidas nefastas

Estos ejemplos no son solo amenazas potenciales. En marzo pasado, se utilizó un deepfake basado en voz para personificar El CEO de una empresa de energía con sede en el Reino Unido. El estafador llamó a uno de los empleados del CEO y lo convenció de transferir $ 243,000 a un proveedor con sede en Hungría. El dinero fue trasladado a una cuenta bancaria en México y el ladrón aún no ha sido atrapado.

Dada la gran variedad de oportunidades de fraude, la compañía de verificación de identidad iProov recientemente encuestó a 105 tomadores de decisiones de seguridad cibernética en instituciones financieras con sede en el Reino Unido. La empresa que ganado Best of Show en FinovateEurope a principios de este mes, detalló los resultados en un reporte.

Según los hallazgos, el 13% de las empresas encuestadas nunca habían oído hablar del término "deepfake". Y aunque el 31% de los encuestados no tenía planes de combatir las falsificaciones profundas o no estaba seguro de si sus organizaciones tenían medidas de protección, el 28% ya había implementado tales medidas. La encuesta también informó que el 4% de las organizaciones dijeron que las falsificaciones profundas no representan una amenaza para su empresa. Sin embargo, la mayoría de los encuestados, el 40%, dijo que las falsificaciones profundas representan una "leve amenaza".

La solución

La industria de la tecnología financiera está madura con firmas de seguridad, como iProov, que utilizan inteligencia artificial para combatir las falsificaciones profundas de video y audio con tecnologías anti-spoofing. Muchas compañías de seguridad también ofrecen detección de vida para detectar representaciones artificiales de clientes reales. La detección de vitalidad desempeña un papel importante en la detección de suplantación de identidad durante la incorporación de nuevos clientes, cuando los ciberdelincuentes pueden intentar usar una licencia de conducir robada junto con una máscara creada a partir de una foto de la persona para configurar una cuenta fraudulenta. Las organizaciones de servicios financieros también pueden usar la detección de vida para frustrar los intentos de inicio de sesión fraudulentos para la tecnología que utiliza el reconocimiento facial.

Los estafadores, por definición, muestran total desprecio por las regulaciones. Sin embargo, los legisladores están haciendo esfuerzos para acabar con la tecnología. En junio, la congresista de Nueva York Yevette Clark presentó el Ley de rendición de cuentas de Deepfakes en la casa. eso requeriría que los creadores de video divulguen si se modificó un video y permitiría a las víctimas demandar. Como TechCrunch señala, el acto sería difícil de hacer cumplir, pero al menos es un comienzo.

Fuente: https://finovate.com/dealing-with-deepfakes-in-fintech/

punto_img

Información más reciente

punto_img