Logotipo de Zephyrnet

Los empleados de Meta socavan la estrategia de metaverso de Zuckerberg

Fecha:

¿Alguna vez has publicado fotos tuyas en plataformas de redes sociales como Facebook, Instagram, Tik Tok y otras? Si es así, tal vez sea hora de reconsiderar esas publicaciones.

Esto se debe a que una nueva tecnología de generación de imágenes de IA ahora permite a los usuarios guardar un montón de fotos y cuadros de video tuyos y luego entrenarlos para originar falsificaciones "realistas" de tu foto que te muestran en posiciones francamente vergonzosas, posiciones ilegales y, a veces, comprometedoras.

Bueno, no todos están en riesgo, pero la amenaza es real.

Aunque las fotografías siempre han sido propensas a manipulación y la falsificación desde la era de los cuartos oscuros donde las películas se manipulaban con tijeras y se pegaban hasta el photoshop de píxeles en la actualidad.

Si bien era una tarea abrumadora y requería una medida de habilidades especializadas en esos días, en la actualidad crear falsificaciones fotorrealistas convincentes se ha hecho demasiado fácil.

Primero, un modelo de IA debe aprender cómo representar o sintetizar una imagen de alguien en una foto de un modelo 2D o 3D a través del software. Una vez que la imagen se renderiza con éxito, la imagen se convierte naturalmente en un juguete para la tecnología y tiene la capacidad de generar cantidades infinitas de imágenes.

Cuando uno elige compartir el modelo de IA, otras personas también pueden unirse y comenzar a crear imágenes de esa persona también.

Tecnología de inteligencia artificial que crea imágenes falsas profundas que arruinan la vida

¿Real o generado por IA?

Estudios de casos de redes sociales

Un voluntario descrito como “valiente” por Ars Technica, una publicación de tecnología, que inicialmente había permitido que la compañía usara sus imágenes para crear falsificaciones, cambió de parecer.

Esto se debe a que, en poco tiempo, los resultados de las imágenes renderizadas del modelo de IA fueron demasiado convincentes y demasiado perjudiciales para la reputación del voluntario.

Dado el alto riesgo para la reputación, una persona ficticia generada por IA, John, se convirtió en una elección natural.

John, el chico ficticio, era un maestro de escuela primaria que, como muchas otras personas, publicaba sus imágenes en Facebook en el trabajo, descansando en casa y en algún evento de este tipo.

Las imágenes en gran medida inofensivas de "John" se renderizaron y luego se usaron para entrenar a la IA para ponerlo en posiciones más comprometedoras.

A partir de solo siete imágenes, la IA podría entrenarse para generar imágenes que hagan parecer que John vive una vida doble y secreta. Por ejemplo, apareció como alguien a quien le gustaba posar desnudo para selfies en su salón de clases.

Por la noche, iba a los bares con aspecto de payaso.

Los fines de semana formaba parte de un grupo paramilitar extremista.

La IA también creó la impresión de que había estado en prisión por un cargo de drogas ilegales, pero le había ocultado este hecho a su empleador.

En otra imagen, se ve a John, que está casado, posando junto a una mujer desnuda que no es su esposa en una oficina.

Usando un generador de imágenes de IA llamado Difusión estable (versión 1.5) y una técnica llamada Dreambooth, Ars Technica pudo entrenar a la IA para generar fotos de John en cualquier estilo. Aunque John era una creación ficticia, teóricamente cualquiera podría lograr el mismo conjunto de resultados a partir de cinco o más imágenes. Estas imágenes podrían extraerse de cuentas de redes sociales o tomarse como fotogramas fijos de un video.

El proceso de enseñar a la IA cómo crear imágenes de John tomó alrededor de una hora y fue gratuito gracias a un servicio de computación en la nube de Google.

Cuando se completó el entrenamiento, la creación de las imágenes tomó varias horas, dijo la publicación. Y esto no se debió a que generar las imágenes fuera un proceso un tanto lento, sino a que era necesario analizar una serie de "imágenes imperfectas" y usar una especie de indicación de "prueba y error" para encontrar las mejores imágenes.

El estudio descubrió que era notablemente mucho más fácil en comparación con intentar crear una foto realista falsa de "John" en Photoshop desde cero.

Gracias a la tecnología, se puede hacer que personas como John parezcan haber actuado ilegalmente o cometido actos inmorales, como allanamiento de morada, uso de drogas ilegales y ducharse desnudos con un estudiante. Si los modelos de IA están optimizados para la pornografía, las personas como John pueden convertirse en estrellas porno casi de la noche a la mañana.

También se pueden crear imágenes de John haciendo cosas aparentemente inofensivas que pueden ser devastadoras si se le muestra bebiendo en un bar cuando ha prometido sobriedad.

No termina ahí.

Una persona también puede aparecer en un momento más ligero como un caballero medieval o un astronauta. En algunos casos, las personas pueden ser tanto jóvenes como mayores o incluso disfrazarse.

Sin embargo, el rendido imágenes están lejos de ser perfectos. Una mirada más cercana puede detectarlos como falsificaciones.

La desventaja es que la tecnología que crea estas imágenes se ha mejorado significativamente y podría hacer que sea imposible distinguir entre una foto sintetizada y una real.

Sin embargo, a pesar de sus defectos, las falsificaciones podrían arrojar sombras de duda sobre John y potencialmente arruinar su reputación.

Últimamente, varias personas han utilizado esta misma técnica (con personas reales) para generar fotos de perfil extravagantes y artísticas de sí mismos.

También servicios comerciales y apps como Lensa han proliferado que manejan el entrenamiento.

¿Cómo funciona?

El trabajo sobre John puede parecer notable si uno no ha estado siguiendo las tendencias. Hoy en día, los ingenieros de software saben cómo crear nuevas imágenes fotorrealistas de cualquier cosa que uno pueda imaginar.

Además de las fotos, la IA ha permitido de manera controvertida que las personas creen nuevas obras de arte que clonen el trabajo de artistas existentes sin su permiso.

Suspendido por preocupaciones éticas

Mitch Jackson, un abogado de tecnología de EE. UU., expresó su preocupación por la proliferación de tecnología profundamente falsa en el mercado y dice que estudiará los impactos legales de la tecnología en la mayor parte de 2023.

"Distinguir entre lo que es real y lo que es falso eventualmente se volverá imposible para la mayoría de los consumidores”.

Adobe ya tiene una tecnología de audio llamada Adobe VoCo que permite que cualquiera suene exactamente como otra persona. El trabajo en Adobe VoCo se suspendió debido a preocupaciones éticas, pero docenas de otras empresas están perfeccionando la tecnología y algunas ofrecen alternativas en la actualidad. Echa un vistazo, o escucha, por ti mismo”, Mitchum dijo.

Las imágenes y las versiones en video de videos falsos profundos son cada vez mejores, dice.

“A veces, es imposible distinguir los videos falsos de los reales”, agrega.

Stable Diffusion utiliza un modelo de síntesis de imágenes de aprendizaje profundo que puede crear nuevas imágenes a partir de descripciones de texto y puede ejecutarse en una PC con Windows o Linux, en una Mac o en la nube en hardware de computadora alquilado.

Con la ayuda de un aprendizaje intensivo, la red neuronal de Stable Diffusion ha dominado la asociación de palabras y la asociación estadística general entre las posiciones de los píxeles en las imágenes.

Debido a esto, se puede dar a Stable Diffusion un aviso, como "Tom Hanks en un salón de clases", y le dará al usuario una nueva imagen de Tom Hanks en un salón de clases.

En el caso de Tom Hank, es pan comido porque cientos de sus fotos ya están en el conjunto de datos que se usa para entrenar Stable Diffusion. Pero para crear imágenes de personas como John, la IA necesitará un poco de ayuda.

Ahí es donde patea Dreambooth.

Dreambooth, que fue lanzado el 30 de agosto por investigadores de Google, utiliza una técnica especial para entrenar Stable Diffusion a través de un proceso llamado "ajuste fino".

Al principio, Dreambooth no estaba asociado con Stable Diffusion y Google no había puesto a disposición su código fuente por temor a abusos.

En poco tiempo, alguien encontró una manera de adaptar la técnica Dreambooth para trabajar con Stable Diffusion y lanzó el código libremente como un proyecto de código abierto, lo que convirtió a Dreambooth en una forma muy popular para que los artistas de IA enseñen nuevos estilos artísticos a Stable Diffusion.

Impacto mundial

Se estima que 4 mil millones de personas en todo el mundo usan las redes sociales. Como muchos de nosotros hemos subido más de un puñado de fotos de nosotros mismos, todos podríamos volvernos vulnerables a este tipo de ataques.

Aunque el impacto de la tecnología de síntesis de imágenes se ha representado desde el punto de vista de un hombre, las mujeres también tienden a ser las más afectadas.

Cuando se representa el rostro o el cuerpo de una mujer, su identidad puede insertarse maliciosamente en imágenes pornográficas.

Esto ha sido posible gracias a la gran cantidad de imágenes sexualizadas que se encuentran en los conjuntos de datos utilizados en el entrenamiento de IA.

En otras palabras, esto significa que la IA está muy familiarizada con la forma de generar esas imágenes pornográficas.

En un intento por abordar algunos de estos problemas éticos, Stability AI se vio obligada a eliminar el material NSFW de su conjunto de datos de capacitación para su versión 2.0 más reciente.

Aunque su licencia de software prohíbe que las personas usen el generador de IA para crear imágenes de personas sin su permiso, existe muy poco o ningún potencial para la aplicación.

Los niños tampoco están a salvo de las imágenes sintetizadas y podrían ser intimidados usando esta tecnología incluso en los casos en que las imágenes no se manipulan.

Tecnología de inteligencia artificial que crea imágenes falsas profundas que arruinan la vida

¿Hecho por humanos?

Hay algo que podamos hacer al respecto?

La lista de cosas que hacer varía de persona a persona. Una forma es dar el paso drástico de eliminar todas las imágenes fuera de línea.

Si bien eso puede funcionar para la gente común, no es una gran solución para las celebridades y otras figuras públicas.

Sin embargo, en el futuro, las personas podrán protegerse del abuso de las fotografías a través de medios técnicos. Los futuros generadores de imágenes de IA podrían verse obligados legalmente a incrustar marcas de agua invisibles en sus resultados.

De esa manera, sus marcas de agua se pueden leer más tarde y facilitar que las personas sepan que son falsas.

"Es necesaria una regulación amplia. Se debe exigir que cualquier pieza de contenido manipulado o falso muestre de manera destacada una letra o advertencia, al igual que la película (G, PG, R y X). Tal vez algo como Digitally Altertered o DA," dice Mitchum.

Stability AI lanzó su Stable Diffusion como un proyecto de código abierto este año.

Para su crédito, Stable Diffusion ya usa marcas de agua incrustadas de forma predeterminada, pero las personas que acceden a su versión de código abierto tienden a evitarlo ya sea deshabilitando el componente de marca de agua del software o eliminándolo por completo.

MIT para mitigar

Aunque esto es puramente especulativo, una marca de agua agregada voluntariamente a las fotos personales puede interrumpir el proceso de capacitación de Dreambooth. Un grupo de investigadores del MIT dijo fotoguardia, un proceso contradictorio que tiene como objetivo proteger y proteger a AI de sintetizar una foto existente a través de modificaciones menores mediante el uso de un método de marca de agua invisible. Sin embargo, esto solo se limita a los casos de uso de edición de IA (a menudo llamado "repintar") e incluye capacitación o generación de imágenes.

"¡IA se está haciendo cargo de la escritura y la pintura! ¡Las falsificaciones profundas arruinarán el video!
Buena.
Eso significa que la actuación en vivo se vuelve aún MÁS valiosa. Las ferias prosperarán. Los humanos quieren hacer negocios con humanos.
Meatspace sigue siendo el mejor espacio" jonathan pitchard dice.

Últimamente, ha habido una proliferación de tecnología de IA que escribe poemas, rimas y canciones. y algunos que son masterizaciones juegos.

Los críticos han tomado los avances tecnológicos negativamente y creen que la IA se está haciendo cargo de los trabajos humanos.

/MetaNoticias.

punto_img

Información más reciente

punto_img