Logotipo de Zephyrnet

El director financiero de Deepfake engaña al negocio de Hong Kong con 25 millones de dólares

Fecha:

Según se informa, un profesional financiero de una multinacional con sede en Hong Kong fue estafado con 25 millones de dólares (200 millones de dólares de Hong Kong) del dinero de la empresa cuando los estafadores crearon una falsificación de su director financiero con sede en Londres en una videoconferencia.

El hongkonés se unió a un videochat en el que aparecía su director financiero, pero parecía un poco fuera de lugar. Tanto es así que el empleado inicialmente sospechó. Pero sus nervios se calmaron cuando otros colegas que reconoció parecieron unirse a la llamada, la policía de Hong Kong. según se informa explicado.

El falso director financiero hizo súplicas cada vez más urgentes para ejecutar transferencias de dinero, y la víctima cumplió con las instrucciones dadas durante la llamada y finalmente realizó 15 transferencias a cinco cuentas bancarias locales.

Según los informes, los videos generados por IA se crearon a partir de conferencias en línea genuinas anteriores. Para añadir profundidad y credibilidad a la estafa, los perpetradores utilizaron WhatsApp, correo electrónico y videoconferencias individuales con miembros del personal de Hong Kong.

"Creo que el estafador descargó videos con anticipación y luego usó inteligencia artificial para agregar voces falsas para usar en la videoconferencia", informó el superintendente superior de la policía de la ciudad, el barón Chan Shun-ching.

Se discute qué más sucedió exactamente en la fatídica llamada. Algunos informes sugieren que solo un participante en la llamada era real, mientras que otros sugieren que varios participantes eran humanos.

Todos coinciden en que aparecieron humanos generados por IA y que, lamentablemente, el profesional de las finanzas anónimo fue engañado. La víctima sólo descubrió esa realidad después de ponerse en contacto con la oficina central de la corporación (también anónima).

Medio de comunicación local La Norma declaró El incidente fue la primera estafa de videoconferencia deepfake en Hong Kong.

En una época más simple e inocente, hace aproximadamente un año y medio, el investigador de Sophos John Shier les dijo a El reg Los deepfakes no eran una gran amenaza.

Según Shier, los estafadores preferían ataques más simples y baratos, como el antiguo phishing.

Ya sea impulsado por el atractivo de mayores incentivos financieros o influenciado por los importantes avances recientes en la tecnología de inteligencia artificial que facilitan su creación, parece que la era en la que no nos preocupamos por los deepfakes está desapareciendo rápidamente.

Si bien la estafa del CFO con deepfake puede ser la primera en Hong Kong que utiliza videoconferencias, no es la única estafa que utiliza esta tecnología. De acuerdo a CNN, la policía de Hong Kong reveló en una rueda de prensa el viernes que había realizado seis arrestos en relación con otras estafas de deepfake y que los deepfakes de IA se habían utilizado al menos 20 veces para engañar al software de reconocimiento facial.

El problema de los deepfake también es global. Senadores estadounidenses la semana pasada Introducido un proyecto de ley bipartidista que permitiría a las víctimas retratadas en deepfakes pornográficos no consensuales generados por IA demandar a los creadores de los videos.

Ese movimiento se produjo después de imágenes sexualmente explícitas de Taylor Swift generadas por IA. proliferado en plataformas de redes sociales, incluido X/Twitter, donde acumularon decenas de millones de visitas antes de que el sitio propiedad de Musk bloqueara las búsquedas del ícono pop.

India ha tenido problemas similares cuando en noviembre apareció en línea un video mucho menos gráfico, pero aún personal y profesionalmente violatorio, generado por IA del actor indio Rashmika Mandanna.

El ministro indio de TI, Rajeev Chandrasekhar según se informa advirtió a finales de enero que las plataformas de redes sociales serían responsables de los deepfakes que publican sus usuarios. ®

punto_img

AVC

Información más reciente

AVC

punto_img