Logotipo de Zephyrnet

La FTC ofrece dinero en efectivo por las mejores ideas para impedir la clonación de voz con IA

Fecha:

La Comisión Federal de Comercio (FTC) promete una recompensa de 25,000 dólares por la mejor solución para combatir la creciente amenaza de la clonación de voz mediante IA.

A veces denominados deepfakes de audio, la cantidad de servicios en línea que ofrecen funciones de clonación de voz fáciles de usar ha proliferado desde que la IA generativa se generalizó, lo que genera preocupación sobre su potencial de abuso en ataques cibernéticos.

Por ejemplo, una amenaza generalizada podría implicar falsificar las voces de los directores ejecutivos para hacerse pasar por ellos e instruir al departamento de finanzas para que transfiera dinero a la cuenta de un atacante. También se podría engañar a amigos y familiares para que envíen dinero a sus seres queridos, y Artistas podrían ver sus medios de vida amenazados si la tecnología continúa madurando.

Las partes interesadas tienen hasta el 12 de enero para presentar sus ideas para ayudar a abordar el fraude de clonación de voz basada en IA, centrándose principalmente en la prevención, el seguimiento y la evaluación de la tecnología.

"Este esfuerzo puede ayudar a impulsar ideas para mitigar los riesgos en sentido ascendente, protegiendo a los consumidores, los profesionales creativos y las pequeñas empresas contra los daños de la clonación de voz antes de que el daño llegue al consumidor", dijo la FTC. dijo

“También puede ayudar a promover ideas para mitigar los riesgos a nivel del consumidor. Y si no surgen ideas viables, esto enviará una advertencia crítica y temprana a los responsables de la formulación de políticas de que deberían considerar límites más estrictos al uso de esta tecnología, dado el desafío de prevenir el desarrollo dañino de aplicaciones en el mercado”.

Las presentaciones se evaluarán en función de qué tan factible sería ejecutar y administrar, qué tan resiliente es a los cambios tecnológicos y qué tan cuidadosamente consideran cómo se impondría la responsabilidad a las empresas, entre otras medidas.

El premio mayor que se ofrece es de 25,000 dólares, lo que no parece una mina de oro teniendo en cuenta las amplias aplicaciones potenciales que puede tener una solución ingeniosa.

Un finalista también recibirá 4,000 dólares, tres menciones honoríficas recibirán 2,000 dólares cada una por sus problemas y las organizaciones de 10 o más personas recibirán un premio de reconocimiento sin dinero en efectivo.

Abuso de voz de IA en acción

La eficacia de la clonación de voz mediante IA se ha demostrado en casos repetidos durante el año pasado. Expertos de la tienda de seguridad eslovaca ESET mostró cómo se puede llevar a cabo el ejemplo antes mencionado de directores ejecutivos falsificados.

De hecho, ha sido un problema durante años antes de que la IA generativa llegara a manos de la persona promedio. Una empresa de energía del Reino Unido fue drenado de $243,000 en 2019 después de que su director ejecutivo recibiera instrucciones de enviar una gran suma a un proveedor húngaro.

Un New York Times reporte, también del año anterior, detalló una serie de casos dirigidos con éxito al sector financiero, engañando a los bancos para que transfirieran dinero de quienes creían que eran clientes genuinos. Él reg también ha informado sobre similares Ataques que tienen lugar en los Emiratos Árabes Unidos. Desde 2021.

Las estafas románticas también abundan: un británico se enamora de Kevin Costner falsificado, y los delincuentes también han demostrado que no están por encima de llevar a cabo Estafas de “emergencia familiar” – aquellos que se dirigen a padres con las voces clonadas de sus hijos pidiendo dinero para pagar la fianza, por ejemplo.

Más ejemplos siniestros He visto a madres recibir llamadas supuestamente de sus hijas mantenidas como rehenes por “secuestradores” que exigen enormes rescates.

La clonación de voz es posible alimentando a un modelo de IA con suficientes datos de entrenamiento para comprender el sonido, el tono, el ritmo, la inflexión y otros matices de la voz de un individuo. Se cree que las celebridades y otras figuras públicas corren un grave riesgo de sufrir estos ataques dada la cantidad de grabaciones de sus voces que existen en línea.

Con el auge de las redes sociales y la cultura de creación de contenido de vídeo, muchas personas que no son celebridades e incluso niños también tienen suficiente material en línea para entrenar a un modelo de manera efectiva.

Los investigadores de Kaspersky analizaron el aumento de la clonación de voces mediante IA el año pasado y descubrieron una amplia variedad de herramientas de código abierto disponibles gratuitamente que podrían generar voces clonadas utilizando tecnología de IA. Sin embargo, sostuvieron que para poner en funcionamiento un clon convincente, se requería un poco de conocimiento de Python y algunos retoques por parte del clonador.

Sin embargo, las ofertas pagas tienden a ser mucho más efectivas. Los investigadores señalaron El modelo VAL-E de Microsoft eso supuestamente podría generar un clon decente con solo tres segundos de audio de voz utilizados como datos de entrenamiento.

También existen otras soluciones pagas que funcionan mejor que las gratuitas, pero aún se encuentran en la etapa inicial de desarrollo, por lo que podemos esperar que la precisión y efectividad de estos modelos mejoren con el tiempo. ®

punto_img

Información más reciente

punto_img