Logotipo de Zephyrnet

Detecte usuarios reales y en vivo y disuada a los malos actores con Amazon Rekognition Face Liveness

Fecha:

Los servicios financieros, la economía informal, las telecomunicaciones, la atención médica, las redes sociales y otros clientes utilizan la verificación facial durante la incorporación en línea, la autenticación mejorada, la restricción de acceso basada en la edad y la detección de bots. Estos clientes verifican la identidad del usuario haciendo coincidir la cara del usuario en una selfie capturada por la cámara de un dispositivo con una foto de tarjeta de identidad emitida por el gobierno o una foto de perfil preestablecida. También estiman la edad del usuario mediante análisis facial antes de permitir el acceso a contenido con restricción de edad. Sin embargo, los malos actores implementan cada vez más ataques falsos utilizando imágenes o videos de la cara del usuario publicados públicamente, capturados en secreto o creados sintéticamente para obtener acceso no autorizado a la cuenta del usuario. Para disuadir este fraude, así como reducir los costos asociados con él, los clientes deben agregar la detección de vida antes de realizar la comparación de rostros o la estimación de edad en su flujo de trabajo de verificación de rostros para confirmar que el usuario frente a la cámara es una persona real y viva. .

Estamos emocionados de presentar Reconocimiento de amazonas Face Liveness para ayudarlo a disuadir de manera fácil y precisa el fraude durante la verificación facial. En esta publicación, comenzamos con una descripción general de la función Face Liveness, sus casos de uso y la experiencia del usuario final; proporcionar una descripción general de sus capacidades de detección de suplantación de identidad; y muestre cómo puede agregar Face Liveness a sus aplicaciones web y móviles.

Descripción general de Face Liveness

Hoy en día, los clientes detectan la vitalidad utilizando varias soluciones. Algunos clientes utilizan modelos de aprendizaje automático (ML) de detección de puntos de referencia faciales comerciales o de código abierto en sus aplicaciones web y móviles para comprobar si los usuarios realizan correctamente gestos específicos como sonreír, asentir, sacudir la cabeza, parpadear o abrir la boca. Estas soluciones son costosas de construir y mantener, no logran disuadir los ataques de suplantación de identidad avanzados realizados con máscaras 3D físicas o videos inyectados, y requieren un gran esfuerzo del usuario para completarse. Algunos clientes usan funciones de vida de rostros de terceros que solo pueden detectar ataques falsos presentados a la cámara (como fotos o videos impresos o digitales en una pantalla), que funcionan bien para usuarios en geografías seleccionadas y, a menudo, son completamente administrados por el cliente. Por último, algunas soluciones de clientes se basan en sensores infrarrojos basados ​​en hardware y otros sensores en cámaras de teléfonos o computadoras para detectar la vida de los rostros, pero estas soluciones son costosas, específicas del hardware y solo funcionan para usuarios con dispositivos selectos de gama alta.

Con Face Liveness, puede detectar en segundos que los usuarios reales, y no los malos actores que usan suplantaciones, están accediendo a sus servicios. Face Liveness incluye estas características clave:

  • Analiza un video selfie corto del usuario en tiempo real para detectar si el usuario es real o una parodia.
  • Devuelve una puntuación de confianza de vivacidad: una métrica para el nivel de confianza de 0 a 100 que indica la probabilidad de que una persona sea real y esté viva.
  • Devuelve una imagen de referencia de alta calidad: un marco de selfie con controles de calidad que se pueden usar para el flujo descendente Coincidencia de rostros de Amazon Rekognition or estimación de la edad análisis
  • Devuelve hasta cuatro imágenes de auditoría: fotogramas del video selfie que se pueden usar para mantener registros de auditoría
  • Detecta falsificaciones presentadas a la cámara, como una foto impresa, una foto digital, un video digital o una máscara 3D, así como falsificaciones que pasan por alto la cámara, como un video pregrabado o falso.
  • Se puede agregar fácilmente a las aplicaciones que se ejecutan en la mayoría de los dispositivos con una cámara frontal utilizando componentes de interfaz de usuario de AWS Amplify preconstruidos de código abierto

Además, no se requiere experiencia en administración de infraestructura, implementación específica de hardware o ML. La función se amplía o reduce automáticamente en respuesta a la demanda, y solo paga por las comprobaciones de vida de la cara que realiza. Face Liveness utiliza modelos ML entrenados en diversos conjuntos de datos para proporcionar una alta precisión en los tonos de piel, las ascendencias y los dispositivos de los usuarios.

Use cases

El siguiente diagrama ilustra un flujo de trabajo típico usando Face Liveness.

Puede usar Face Liveness en los siguientes flujos de trabajo de verificación de usuarios:

  • Incorporación de usuarios – Puede reducir la creación de cuentas fraudulentas en su servicio al validar nuevos usuarios con Face Liveness antes del procesamiento posterior. Por ejemplo, un cliente de servicios financieros puede usar Face Liveness para detectar un usuario real y en vivo y luego realizar una comparación de rostros para verificar que este es el usuario correcto antes de abrir una cuenta en línea. Esto puede disuadir a un malhechor que utilice imágenes de otra persona en las redes sociales para abrir cuentas bancarias fraudulentas.
  • Autenticación intensificada – Puede fortalecer la verificación de actividades de usuario de alto valor en sus servicios, como cambio de dispositivo, cambio de contraseña y transferencias de dinero, con Face Liveness antes de que se realice la actividad. Por ejemplo, un cliente que comparte un viaje o entrega comida puede usar Face Liveness para detectar a un usuario real y en vivo y luego realizar una comparación de rostros usando una foto de perfil establecida para verificar la identidad de un conductor o asociado de entrega antes de un viaje o entrega para promover la seguridad. Esto puede disuadir a los socios y conductores de entrega no autorizados de interactuar con los usuarios finales.
  • Verificación de la edad del usuario – Puede disuadir a los usuarios menores de edad de acceder a contenido en línea restringido. Por ejemplo, los minoristas de tabaco en línea o los clientes de juegos de apuestas en línea pueden usar Face Liveness para detectar un usuario real y en vivo y luego realizar una estimación de edad mediante análisis facial para verificar la edad del usuario antes de otorgarle acceso al contenido del servicio. Esto puede disuadir a un usuario menor de edad de usar las tarjetas de crédito o la foto de sus padres y obtener acceso a contenido dañino o inapropiado.
  • Detección de bots – Puede evitar que los bots interactúen con su servicio utilizando Face Liveness en lugar de verificaciones de captcha de "humanos reales". Por ejemplo, los clientes de las redes sociales pueden usar Face Liveness para realizar controles humanos reales para mantener a raya a los bots. Esto aumenta significativamente el costo y el esfuerzo requerido por los usuarios que impulsan la actividad del bot porque las acciones clave del bot ahora deben pasar una verificación de vida facial.

Experiencia del usuario final

Cuando los usuarios finales necesitan incorporarse o autenticarse en su aplicación, Face Liveness proporciona la interfaz de usuario y la retroalimentación en tiempo real para que el usuario capture rápidamente un video autofoto breve en el que mueve su rostro en un óvalo representado en la pantalla de su dispositivo. A medida que la cara del usuario se mueve hacia el óvalo, se muestra una serie de luces de colores en la pantalla del dispositivo y el video selfie se transmite de forma segura a las API de la nube, donde los modelos avanzados de ML analizan el video en tiempo real. Una vez que se completa el análisis, recibe una puntuación de predicción de vida (un valor entre 0 y 100), una imagen de referencia e imágenes de auditoría. Dependiendo de si el puntaje de confianza de vida está por encima o por debajo de los umbrales establecidos por el cliente, puede realizar tareas de verificación posteriores para el usuario. Si el puntaje de vida está por debajo del umbral, puede pedirle al usuario que vuelva a intentarlo o enrutarlo a un método de verificación alternativo.

La secuencia de pantallas a las que estará expuesto el usuario final es la siguiente:

  1. La secuencia comienza con una pantalla de inicio que incluye una introducción y una advertencia fotosensible. Solicita al usuario final que siga las instrucciones para demostrar que es una persona real.
  2. Después de que el usuario final elija Comience la verificación, se muestra una pantalla de cámara y la comprobación inicia una cuenta atrás desde 3.
  3. Al final de la cuenta regresiva, comienza una grabación de video y aparece un óvalo en la pantalla. Se le pide al usuario final que mueva su cara hacia el óvalo. Cuando Face Liveness detecta que la cara está en la posición correcta, se solicita al usuario final que se quede quieto mientras se muestra una secuencia de colores.
  4. El video se envía para la detección de vida y aparece una pantalla de carga con el mensaje "Verificando".
  5. El usuario final recibe una notificación de éxito o un aviso para volver a intentarlo.

Así es como se ve la experiencia del usuario en acción en una implementación de muestra de Face Liveness.

Detección de suplantación de identidad

Face Liveness puede disuadir la presentación y evitar los ataques de suplantación de identidad. Describamos los tipos clave de parodia y veamos cómo Face Liveness los disuade.

Ataques de suplantación de presentación

Estos son ataques falsos en los que un mal actor presenta el rostro de otro usuario a la cámara utilizando artefactos impresos o digitales. El mal actor puede usar una impresión de la cara de un usuario, mostrar la cara del usuario en la pantalla de su dispositivo usando una foto o un video, o usar una máscara facial en 3D que se parezca al usuario. Face Liveness puede detectar con éxito este tipo de ataques de suplantación de presentación, como demostramos en el siguiente ejemplo.

A continuación, se muestra un ataque de suplantación de identidad utilizando un video digital en la pantalla del dispositivo.

A continuación se muestra un ejemplo de un ataque de suplantación de identidad utilizando una foto digital en la pantalla del dispositivo.

El siguiente ejemplo muestra un ataque de suplantación de identidad utilizando una máscara 3D.

El siguiente ejemplo muestra un ataque de suplantación de identidad usando una foto impresa.

Ataques de bypass o inyección de video

Estos son ataques falsos en los que un mal actor pasa por alto la cámara para enviar un video selfie directamente a la aplicación usando una cámara virtual.

Componentes Face Liveness

Amazon Rekognition Face Liveness utiliza varios componentes:

  • AWS amplificar SDK web y móvil con la FaceLivenessDetector componente
  • SDK de AWS
  • API en la nube

Revisemos la función de cada componente y cómo puede usar estos componentes juntos fácilmente para agregar Face Liveness en sus aplicaciones en solo unos días.

Amplifique los SDK web y móviles con el componente FaceLivenessDetector

el amplificar FaceLivenessDetector El componente integra la función Face Liveness en su aplicación. Maneja la interfaz de usuario y los comentarios en tiempo real para los usuarios mientras capturan su video selfie.

Cuando una aplicación cliente representa el FaceLivenessDetector componente, establece una conexión con el servicio de transmisión de Amazon Rekognition, representa un óvalo en la pantalla del usuario final y muestra una secuencia de luces de colores. También graba y transmite videos en tiempo real al servicio de transmisión de Amazon Rekognition, y presenta adecuadamente el mensaje de éxito o falla.

AWS SDK y API en la nube

Cuando configura su aplicación para que se integre con la función Face Liveness, utiliza las siguientes operaciones de la API:

  • CrearFaceLivenessSession – Inicia una sesión de Face Liveness, lo que permite que el modelo de detección de Face Liveness se use en su aplicación. Devuelve un SessionId para la sesión creada.
  • InicioFaceLivenessSession – Es llamado por el FaceLivenessDetector componente. Inicia un flujo de eventos que contiene información sobre eventos y atributos relevantes en la sesión actual.
  • GetFaceLivenessSessionResults – Recupera los resultados de una sesión específica de Face Liveness, incluida una puntuación de confianza de Face Liveness, una imagen de referencia e imágenes de auditoría.

Puede probar Amazon Rekognition Face Liveness con cualquier SDK de AWS compatible, como el Boto3 del SDK de AWS Python o de SDK de AWS para Java V2.

Experiencia de desarrollador

El siguiente diagrama ilustra la arquitectura de la solución.

El proceso de comprobación de Face Liveness consta de varios pasos:

  1. El usuario final inicia una verificación de Face Liveness en la aplicación del cliente.
  2. La aplicación del cliente llama al backend del cliente, que a su vez llama a Amazon Rekognition. El servicio crea una sesión de Face Liveness y devuelve un único SessionId.
  3. La aplicación cliente representa el FaceLivenessDetector componente utilizando el obtenido SessionId y devoluciones de llamada apropiadas.
  4. La FaceLivenessDetector El componente establece una conexión con el servicio de transmisión de Amazon Rekognition, representa un óvalo en la pantalla del usuario y muestra una secuencia de luces de colores. FaceLivenessDetector graba y transmite videos en tiempo real al servicio de transmisión de Amazon Rekognition.
  5. Amazon Rekognition procesa el video en tiempo real, almacena los resultados, incluida la imagen de referencia y las imágenes de auditoría, que se almacenan en un depósito de Amazon Simple Storage Service (S3), y devuelve un DisconnectEvent En el correo electrónico “Su Cuenta de Usuario en su Nuevo Sistema XNUMXCX”. FaceLivenessDetector componente cuando se complete la transmisión.
  6. La FaceLivenessDetector El componente llama a las devoluciones de llamada apropiadas para señalar a la aplicación cliente que la transmisión está completa y que las puntuaciones están listas para recuperarse.
  7. La aplicación del cliente llama al backend del cliente para obtener un indicador booleano que indica si el usuario estaba activo o no. El backend del cliente realiza la solicitud a Amazon Rekognition para obtener la puntuación de confianza, la referencia y las imágenes de auditoría. El backend del cliente usa estos atributos para determinar si el usuario está activo y devuelve una respuesta adecuada a la aplicación del cliente.
  8. Finalmente, la aplicación cliente pasa la respuesta al FaceLivenessDetector componente, que representa adecuadamente el mensaje de éxito o error para completar el flujo.

Conclusión

En esta publicación, mostramos cómo la nueva característica Face Liveness en Amazon Rekognition detecta si un usuario que está pasando por un proceso de verificación facial está físicamente presente frente a una cámara y no es un mal actor que utiliza un ataque de suplantación de identidad. Con Face Liveness, puede evitar el fraude en sus flujos de trabajo de verificación de usuarios basados ​​en el rostro.

Comience hoy visitando el Página de características de Face Liveness para obtener más información y acceder a la guía para desarrolladores. Las API en la nube de Amazon Rekognition Face Liveness están disponibles en las regiones de EE. UU. Este (Norte de Virginia), EE. UU. Oeste (Oregón), Europa (Irlanda), Asia Pacífico (Mumbai) y Asia Pacífico (Tokio).


Acerca de los autores

Zuhayr Raghib es arquitecto de soluciones de servicios de IA en AWS. Se especializa en AI/ML aplicado y le apasiona permitir que los clientes usen la nube para innovar más rápido y transformar sus negocios.

Pavan Prasanna Kumar es gerente sénior de productos en AWS. Le apasiona ayudar a los clientes a resolver sus desafíos comerciales a través de la inteligencia artificial. En su tiempo libre, le gusta jugar squash, escuchar podcasts de negocios y explorar nuevos cafés y restaurantes.

Tushar Agrawal lidera la gestión de productos para Amazon Rekognition. En este rol, se enfoca en desarrollar capacidades de visión artificial que resuelvan problemas comerciales críticos para los clientes de AWS. Le gusta pasar tiempo con la familia y escuchar música.

punto_img

Información más reciente

punto_img