Logotipo de Zephyrnet

El director financiero deepfake engaña a un empleado con 25.6 millones de dólares en una estafa de inteligencia artificial en Hong Kong

Fecha:

Según se informa, un trabajador financiero de una multinacional con sede en Hong Kong perdió 200 millones de dólares de Hong Kong (25.6 millones de dólares) de dinero de la empresa después de que los estafadores utilizaron tecnología de inteligencia artificial falsa para hacerse pasar por el director financiero de la empresa en una videoconferencia.

La policía dijo que el empleado recibió un mensaje el mes pasado de alguien que decía ser el director financiero de la empresa con sede en Londres. La persona, que resultó ser un estafador, pidió al trabajador que se uniera a una videollamada "cifrada" con otros cuatro o seis empleados.

Después de una vacilación inicial, el empleado quedó convencido después de la videollamada porque los demás asistentes parecían y hablaban como personas que conocía del trabajo, según Hong Kong Standard. reportaron.

Lea también: Hombre pierde $ 600,000 por estafador usando IA de intercambio de rostros

Estafar a un profesional de las finanzas

El falso director financiero no perdió el tiempo. Rápidamente hizo llamamientos urgentes para facilitar las transferencias de dinero. La víctima creyó que todos los demás en la videollamada eran reales y cumplió con las instrucciones y finalmente realizó 15 transferencias a cinco cuentas bancarias locales.

En total, el trabajador acordó transferir 200 millones de dólares de Hong Kong, unos 25.6 millones de dólares en ese momento. El empleado descubrió que había sido engañado una semana después, tras consultar con la sede de la empresa. Denunció el asunto a la policía.

“(En la) videoconferencia de varias personas, resulta que todos los que vio eran falsos”, dijo el superintendente superior de la policía de Hong Kong, Baron Chan Shun-ching. El policía no reveló el nombre ni datos de la empresa ni del trabajador.

Según Chan, los videos se generaron utilizando inteligencia artificial y se crearon a partir de conferencias en línea genuinas pasadas. Para añadir profundidad y credibilidad a la estafa, los estafadores utilizaron WhatsApp, correo electrónico y videoconferencias individuales con miembros del personal de Hong Kong.

“Creo que el estafador descargó videos con anticipación y luego usó inteligencia artificial para agregar voces falsas para usar en la videoconferencia”, dijo Chan, y en otro informe agregó:

"Usaron tecnología deepfake para imitar la voz de sus objetivos leyendo un guión".

La policía dijo que los casos en los que se utilizó tecnología de inteligencia artificial falsa para engañar a las personas con su dinero han ido en aumento en Hong Kong. Entre julio y septiembre de 2023, se utilizaron ocho tarjetas de identificación locales robadas para realizar 90 solicitudes de préstamos y 54 registros de cuentas bancarias, dijo Chan, como reportaron por CNN.

Según la policía de Hong Kong, los estafadores habían utilizado Falsificaciones profundas de IA al menos 20 veces para engañar al software de reconocimiento facial “imitando a las personas que aparecen en las tarjetas de identidad”. La policía ha arrestado a seis personas en relación con este tipo de estafas.

El director financiero deepfake engaña a un empleado con 25.6 millones de dólares en una estafa de inteligencia artificial en Hong Kong

El director financiero deepfake engaña a un empleado con 25.6 millones de dólares en una estafa de inteligencia artificial en Hong Kong

Los deepfakes de IA preocupan a los líderes mundiales

Según los expertos, a medida que la IA se vuelva más avanzada, será cada vez más difícil distinguir entre identidades reales y falsas. La tecnología puede socavar la seguridad y la privacidad de las identidades digitales.

Por ejemplo, se puede utilizar para crear deepfakes, imágenes o vídeos realistas pero falsos utilizados para hacerse pasar por otra persona, incluida su voz, como se puso de relieve en el caso de Hong Kong.

Los reguladores de todo el mundo han comenzado a prestar más atención a los peligros de la IA desde que OpenAI lanzó su chatbot viral. ChatGPT en noviembre 2022.

En Estados Unidos, los senadores Introducido un proyecto de ley bipartidista a finales del mes pasado que permitiría a las víctimas retratadas en deepfakes pornográficos no consensuales generados por IA demandar a los creadores de los videos.

La decisión se tomó después de que imágenes sexualmente explícitas generadas por IA de Taylor Swift se volvieron virales en las redes sociales, incluido X, donde decenas de millones de personas los vieron antes de que la plataforma antes conocida como Twitter bloqueara las búsquedas del cantante pop.

En China, la Administración del Ciberespacio del país emitió el año pasado nuevas regulaciones que prohíben el uso de contenido generado por IA para difundir “noticias falsas”. Las regulaciones también exigen que los proveedores de tecnología deepfake etiqueten claramente sus productos como sintéticos.

En India, el ministro de TI, Rajeev Chandrasekhar, recientemente prevenido que las empresas de redes sociales serían responsables de los deepfakes de IA publicados por personas en sus plataformas. Esto se produce después de un vídeo semidesnudo creado por IA del actor indio Rashmika Mandanna. Aparecido en línea en noviembre.

punto_img

Información más reciente

punto_img