Logotipo de Zephyrnet

El nuevo generador de texto falso de IA puede ser demasiado peligroso de lanzar, dicen los creadores

Fecha:

OpenAI, la empresa sin fines de lucro respaldada por Elon Musk, se niega a publicar la investigación por temor a un uso indebido

Los creadores de un revolucionario sistema de inteligencia artificial que puede escribir noticias y trabajos de ficción, denominados "falsificaciones profundas para texto", han dado el paso inusual de no publicar sus investigaciones públicamente, por temor a un posible uso indebido.

OpenAI, una compañía de investigación sin fines de lucro respaldada por Elon Musk, Reid Hoffman, Sam Altman y otros, dice que su nuevo modelo de inteligencia artificial, llamado GPT2, es tan bueno y el riesgo de uso malicioso es tan alto que está rompiendo con su práctica normal de liberar todo investigar al público para dar más tiempo para discutir las ramificaciones del avance tecnológico.

 Cómo OpenAI escribe noticias convincentes y obras de ficción - video

En esencia, GPT2 es un generador de texto. El sistema de IA se alimenta de texto, desde unas pocas palabras hasta una página completa, y se le pide que escriba las siguientes oraciones en función de sus predicciones de lo que vendrá después. El sistema está empujando los límites de lo que se creía posible, tanto en términos de calidad de la producción como en la gran variedad de usos potenciales.

Cuando se usa para generar simplemente texto nuevo, GPT2 es capaz de escribir pasajes plausibles que coinciden con lo que se da tanto en estilo como en tema. Raramente muestra alguna de las peculiaridades que marcan los sistemas de inteligencia artificial anteriores, como olvidar lo que está escribiendo a mitad de un párrafo o alterar la sintaxis de oraciones largas.

Aliméntelo con la línea de apertura de Mil novecientos ochenta y cuatro de George Orwell: "Era un día frío y brillante en abril, y los relojes daban las trece", y el sistema reconoce el tono vagamente futurista y el estilo novelístico, y continúa con:

“Estaba en mi automóvil camino a un nuevo trabajo en Seattle. Puse el gas, puse la llave y luego la dejé correr. Me imaginaba cómo sería el día. Cien años a partir de ahora. En 2045, era profesor en una escuela en una zona pobre de la China rural. Comencé con la historia china y la historia de la ciencia ".

Aliméntelo con los primeros párrafos de una historia de Guardian sobre Brexit, y su producción es prosa plausible en los periódicos, repleta de "citas" de Jeremy Corbyn, menciones de la frontera irlandesa y respuestas del portavoz del primer ministro.

Uno de esos párrafos, completamente artificial, dice: “Cuando se le pidió que aclarara los informes, un portavoz de May dijo: 'El Primer Ministro ha dejado absolutamente claro que su intención es abandonar la UE lo más rápido posible y eso estará bajo su mandato de negociación como se confirmó en el discurso de la Reina la semana pasada ".

Desde el punto de vista de la investigación, GPT2 es innovador en dos formas. Uno es su tamaño, dice Dario Amodei, director de investigación de OpenAI. Los modelos “eran 12 veces más grandes y el conjunto de datos era 15 veces más grande y mucho más amplio” que el modelo anterior de IA de última generación. Se entrenó en un conjunto de datos que contenía alrededor de 10 millones de artículos, seleccionados rastreando el sitio de noticias sociales Reddit en busca de enlaces con más de tres votos. La vasta colección de texto pesaba 40 GB, suficiente para almacenar unas 35,000 copias de Moby Dick.

La cantidad de datos en los que se entrenó GPT2 afectó directamente su calidad, lo que le dio más conocimientos sobre cómo comprender el texto escrito. También condujo al segundo avance. GPT2 tiene un propósito mucho más general que los modelos de texto anteriores. Al estructurar el texto que se ingresa, puede realizar tareas que incluyen traducción y resumen, y aprobar pruebas simples de comprensión de lectura, que a menudo se desempeñan tan bien o mejor que otras IA que se han creado específicamente para esas tareas.

Sin embargo, esa cualidad también ha llevado a OpenAI a ir en contra de su cometido de impulsar la IA y mantener GPT2 a puerta cerrada para el futuro inmediato mientras evalúa lo que los usuarios malintencionados podrían hacer con él. “Necesitamos realizar experimentos para descubrir qué pueden y qué no pueden hacer”, dijo Jack Clark, director de políticas de la organización benéfica. “Si no puede anticipar todas las habilidades de un modelo, debe presionarlo para ver qué puede hacer. Hay muchas más personas que nosotros que son mejores para pensar en lo que puede hacer maliciosamente ".

Para mostrar lo que eso significa, OpenAI creó una versión de GPT2 con algunos ajustes modestos que pueden usarse para generar infinitas reseñas positivas o negativas de los productos. El spam y las noticias falsas son otras dos posibles desventajas obvias, al igual que la naturaleza sin filtros de la IA. Como está entrenado en Internet, no es difícil alentarlo a generar texto intolerante, teorías de conspiración, etc.

En cambio, el objetivo es mostrar lo que es posible para preparar al mundo para lo que será la corriente principal dentro de uno o dos años. “Tengo un término para esto. La escalera mecánica del infierno ”, dijo Clark. “Siempre está bajando el costo de la tecnología y bajando el precio. Las reglas por las que se puede controlar la tecnología han cambiado fundamentalmente.

“No estamos diciendo que sabemos lo que es correcto hacer aquí, no estamos estableciendo la línea y diciendo 'este es el camino' ... Estamos tratando de desarrollar un pensamiento más riguroso aquí. Intentamos construir la carretera a medida que la atravesamos ".

Por: Alex Hern

Créditos de imagen, video y contenido: El guardián

Fuente: https://ainews360.com/new-ai-fake-text-generator-may-be-too-dangerous-to-release-say-creators/

punto_img

Información más reciente

punto_img