Logotipo de Zephyrnet

Rompe lo falso: ha comenzado la carrera para detener el fraude de clonación de voz

Fecha:

Estafas

Mientras la clonación de voz impulsada por IA acelera las estafas de impostores, nos sentamos con Jake Moore de ESET para discutir cómo colgar llamadas fraudulentas de alta fidelidad y qué depara el futuro para la detección de deepfake.

Rompe lo falso: ha comenzado la carrera para detener las estafas de clonación de voz con IA

¿Caería en una llamada falsa de su director ejecutivo pidiéndole que transfiriera dinero? Como nuestro colega Jake Moore se enteró, podrías. A medida que las computadoras con ciclos de computación adicionales reciben cada vez más datos de entrenamiento, los deepfakes son cada vez mejores. Aliméntelos con un largo discurso de CEO y obtendrán inflexión, tono y otros patrones de discurso matizados que eventualmente pueden hacerlos bastante convincentes.

Ahora, al menos en Estados Unidos, hay una concurso para romper lo falsoy, con suerte, encontrar formas de proporcionar a los sistemas defensivos formas de frustrar un ataque relacionado. El desafío lanzado por la Comisión Federal de Comercio (FTC) hizo que los competidores piratearan cualquier tecnología que pudieran encontrar para frustrar las falsificaciones de voz y ganar un premio de 25,000 dólares.

Los concursos se han utilizado para todo, desde diseños de trajes espaciales hasta vehículos autónomos y tecnologías solares, y ahora apuntan a aumentar el interés y los participantes en el campo de la defensa deepfake, aspirando a crear una carrera para proteger a los consumidores contra los daños de la clonación de voz habilitada por IA. Una vez que se registre a través del portal, sus ideas pueden competir con otros enfoques para, con suerte, llevarse el oro a casa.

Todavía me pregunto si eso puede detener a alguien como Jake, así que le pregunté.

jake-moore-tiro en la cabeza

P: ¿Podrán las empresas defenderse de esta amenaza utilizando tecnologías actuales y ampliamente disponibles (y, de ser así, cuáles)?

Jake: Lamentablemente, no creo que la respuesta todavía esté en las tecnologías de contramedidas para combatir este problema en evolución. Todavía estamos en la fase inicial de esta nueva era de la IA y muchas empresas se están basando en la idea de los usos buenos, malos y feos y sus capacidades. La tecnología se desarrolla continuamente para ayudar a quienes la necesitan, pero como en cualquier fase incipiente de una nueva tecnología, el rápido ritmo de tal movimiento no puede seguir el ritmo del cambio en las demandas ilícitas que la utilizan para estafar a personas y empresas.

P: Las mismas preguntas para individuos, ¿piense en estafas a jubilados, estafas románticas y similares?

Jake: La IA ha permitido a los estafadores llevar a cabo sus acciones a escalas mucho mayores que antes, lo que significa que el juego de los números se ha vuelto más grande. Cuando se ataca a más personas, las recompensas obtenidas son mucho mayores y sin ningún esfuerzo adicional real por parte de los estafadores.

Sin embargo, las personas deben seguir siendo más conocedoras de todas las estafas, desde los fraudes clásicos hasta las tendencias actuales. En particular, con el nacimiento de la clonación de voces y la falsificación de imágenes con sorprendente precisión, la gente debe dejar de pensar que ver (y oír) es creer. Ser conscientes de que este tipo de estafas es posible brindará confianza a quienes son objeto de ellas para cuestionar dichas comunicaciones con mayor escrutinio y les enseñará a no tener miedo de cuestionar sus acciones.

Hay mucha orientación en Internet que ofrece consejos de concientización sobre este tipo de estafas y las personas necesitan actualizarse continuamente con la información más reciente para estar y permanecer protegidos.

Q: ¿Qué pueden hacer los equipos antifraude institucionales para mitigar los ataques a sus usuarios/clientes y quién debería pagar si la gente es estafada?

Jake: De forma predeterminada, los equipos antifraude deben ofrecer capacitación a cualquier costo, que debe ser anual y ad hoc para todos los miembros de una organización. Los ataques de simulación y los juegos de guerra también ayudan a transmitir el mensaje de una manera interesante y a llevar un problema grave a una dinámica más interesante, permitiendo fallas en un entorno seguro.

Una vez que las personas hayan experimentado la noción de un ataque moderno y hayan sido testigos de primera mano de la escala de esta nueva tecnología, será más probable que recuerden el consejo en el momento de un ataque real. La IA sigue siendo muy impresionante, por lo que ver los deepfakes en acción en un entorno seguro brinda la oportunidad de mostrar los resultados potencialmente peligrosos que también puede crear sin generar demasiado factor de miedo.

P: Este es claramente un juego del gato y el ratón, entonces ¿quién ganará?

Jake: Desde el principio ha habido una persecución entre “policías y ladrones”, donde los ladrones suelen ir un par de pasos por delante. Sin embargo, a medida que la tecnología mejora, debemos asegurarnos de no quedarnos atrás y ofrecer una ventaja aún mayor a los estafadores.

Es vital que las personas estén equipadas con las herramientas y los conocimientos adecuados para luchar mejor contra estos ataques inevitables, de modo que los estafadores no siempre ganen. Al mantenerse actualizados con los últimos vectores de ataque y las estafas en evolución, las personas y las empresas tienen mejores posibilidades de defenderse contra esta nueva ola de ataques tecnológicos.

Una cosa es segura: ésta ya no es una amenaza teórica. Espere que 2024 y más allá sea el momento en que los estafadores encuentren nuevas formas automatizadas de lanzar ataques habilitados por voz muy rápidamente, especialmente en respuesta a eventos catastróficos en los que algún funcionario de confianza le “pide” que haga algo. Todo sonará convincente, con un aire de urgencia y con lo que parece ser una autenticación auditiva multifactorial, pero aun así puedes ser estafado, incluso si “escuchaste personalmente de un funcionario”.

Gracias por tu tiempo, Jake.

punto_img

Información más reciente

punto_img