Logotipo de Zephyrnet

Una breve historia de la IA generativa – DATAVERSITY

Fecha:

IA generativaIA generativa
Ole.CNX / Shutterstock

La IA generativa tiene una historia bastante corta: la tecnología se introdujo inicialmente durante la década de 1960, en forma de chatbots. Es una forma de inteligencia artificial que actualmente puede producir texto, imágenes, vídeos, audio y datos sintéticos de alta calidad en segundos. Sin embargo, no fue hasta 2014, cuando se introdujo el concepto de red generativa adversarial (GAN), que la IA generativa evolucionó hasta el punto de poder crear imágenes, vídeos y audio que parecen grabaciones auténticas de personas reales.

Actualmente, la IA generativa es un componente importante de ChatGPT y sus variaciones.

Los 1950s

La IA generativa se basa en máquina de aprendizaje y algoritmos de aprendizaje profundo. El primer algoritmo de aprendizaje automático fue desarrollado por Arthur Samuel en 1952 para jugar a las damas; también se le ocurrió la frase "aprendizaje automático".

La primera “red neuronal” capaz de ser entrenada se llamó el perceptrón, y fue desarrollado en 1957 por un psicólogo de la Universidad de Cornell, Frank Rosenblatt. El diseño del Perceptron era muy similar a las redes neuronales modernas, pero solo tenía "una" capa que contenía umbrales y pesos ajustables, que separaban las capas de entrada y salida. Este sistema falló porque consumía demasiado tiempo.

Los 1960s y 1970s

El primer ejemplo histórico de IA generativa se llamó ELIZA. También podría considerarse una versión temprana de los chatbots. Fue creado en 1961 por Joseph Weizenbaum. ELIZA era un programa de computadora parlante que respondería a un humano, usando un lenguaje natural y respuestas diseñadas para sonar empáticas.

Durante las décadas de 1960 y 70, se llevaron a cabo investigaciones preliminares para la visión por computadora y algunos patrones básicos de reconocimiento. El reconocimiento facial dio un salto espectacular cuando Ann B. Lesk, Leon D. Harmon y AJ Goldstein aumentaron significativamente su precisión (Interacción hombre-máquina en la identificación del rostro humano, 1972). El equipo desarrolló 21 marcadores específicos, que incluyen características como el grosor de los labios y el color del cabello para identificar rostros automáticamente. 

En la década de 1970, Seppo Linnainmaa comenzó a utilizar la retropropagación. El término "propagación hacia atrás“Es un proceso de propagación de errores, hacia atrás, como parte del proceso de aprendizaje. Los pasos involucrados son:

  1. Procesado en el extremo de salida.
  2. Enviado para ser distribuido al revés 
  3. Movido a través de las capas de la red para capacitación y aprendizaje. 

(La retropropagación se utiliza para entrenar redes neuronales profundas). 

El primer invierno de IA separa el aprendizaje automático y la inteligencia artificial

El primer invierno de la IA comenzó y terminó aproximadamente entre 1973 y 1979, se hicieron promesas, pero no se cumplieron las expectativas. Las agencias que habían financiado la investigación de la inteligencia artificial (Darpa, NRC y el gobierno británico) se sintieron repentinamente avergonzadas por la falta de avances en su desarrollo. 

Sin embargo, el aprendizaje automático (ML) siguió evolucionando. No porque todavía estuviera recibiendo financiación gubernamental, sino porque el aprendizaje automático se había vuelto extremadamente útil para las empresas como herramienta de respuesta. Aprendizaje automático Había comenzado como una técnica de entrenamiento para la IA, pero se descubrió que también podía usarse para realizar tareas simples, como contestar el teléfono y transferir llamadas a la persona adecuada. Si bien es posible que los programas de aprendizaje automático no sean capaces de mantener una conversación inteligente, sí pueden realizar tareas básicas pero muy útiles. Las empresas no estaban interesadas en renunciar a una herramienta que era a la vez rentable y útil.

Las empresas optaron por financiar su propia investigación para el desarrollo del aprendizaje automático, y los antiguos investigadores se reorganizaron en una industria separada, hasta fusionarse nuevamente con la IA en la década de 1990.

Aunque las redes neuronales fueron propuestas en 1944 por dos investigadores de la Universidad de Chicago, Warren McCullough y Walter Pitts, la primera red neuronal artificial funcional “multicapa”, la Cognitrón, Fue desarrollado en 1975 por Kunihiko Fukushima.

Las redes neuronales sientan las bases para el uso del aprendizaje automático y el aprendizaje profundo. Su diseño admite capas de entrada y salida, y las capas ocultas entre ellas se utilizan para transformar los datos de entrada, haciéndolos útiles para la capa de salida. Con este nuevo diseño, el reconocimiento facial y de voz mejoró drásticamente. Las capas ocultas también proporcionan la base para el aprendizaje profundo.

En 1979, kunihiko fukushima sugirió desarrollar una red neuronal artificial jerárquica de múltiples capas, a la que llamó Neocognitrón. Esta fue la primera red neuronal de aprendizaje profundo. Su diseño respaldó la capacidad de la computadora para aprender a identificar patrones visuales y, más específicamente, el reconocimiento de caracteres escritos a mano. Su diseño también permitió ajustar manualmente datos importantes, lo que permitió a los humanos aumentar el “peso” de ciertas conexiones.

La década de 1980 y el segundo invierno de la IA

En 1982, John Hopfield hizo otro descubrimiento, quien desarrolló una nueva forma de red neuronal: la red hopfield – utilizando un enfoque completamente diferente. La red Hopfield recopiló y recuperó recuerdos más como lo hace el cerebro humano que los sistemas anteriores.

Sin embargo, el segundo invierno de la IA comenzó aproximadamente en 1984 y continuó hasta 1990, y ralentizó el desarrollo de la inteligencia artificial, así como de la IA generativa. La ira y la frustración por las promesas incumplidas y las expectativas incumplidas fueron tan intensas que el término “inteligencia artificial” adquirió un estatus de pseudociencia y a menudo se hablaba de él con desprecio. Se había desarrollado un amplio sentido de escepticismo con respecto a la IA. Desafortunadamente, se recortó la financiación para la mayoría de las investigaciones sobre inteligencia artificial y aprendizaje profundo.

En 1986, David Rumelhart y su equipo introdujeron una nueva forma de entrenamiento de redes neuronales, utilizando la técnica de retropropagación desarrollada en la década de 1970.

A finales de la década de 1980, MOS (Semiconductores de óxido de metal), desarrollado en 1959) se fusionaron con VLSI (Integración a muy gran escala) y proporcionó una red neuronal artificial más práctica y eficiente. Esta combinación fue llamada MOS complementario (o un CMOS).

El aprendizaje profundo se convirtió en una realidad funcional en el año 1989, cuando Yann LeCun y su equipo utilizaron un algoritmo de retropropagación con redes neuronales para reconocer códigos postales escritos a mano.

Aprendizaje profundo Utiliza algoritmos para procesar los datos e imitar el proceso de pensamiento humano. Emplea capas de algoritmos diseñados para procesar datos, reconocer objetos visualmente y comprender el habla humana. Los datos se mueven a través de cada capa, y la salida de la capa anterior presenta la entrada necesaria para la siguiente capa. En el aprendizaje profundo, las capas adicionales que se utilizan proporcionan “abstracciones” de nivel superior, lo que produce mejores predicciones y mejores clasificaciones. Cuantas más capas se utilicen, mayor será el potencial para obtener mejores predicciones. 

El aprendizaje profundo se ha convertido en un proceso de formación extremadamente útil, que admite el reconocimiento de imágenes, el reconocimiento de voz y el procesamiento de grandes cantidades de datos.

La década de 1990 y la investigación de la IA se recupera

Dado que la financiación para la inteligencia artificial comenzó de nuevo en los años 1990, el aprendizaje automático, como mecanismo de formación, también recibió financiación. La industria del aprendizaje automático continuó investigando redes neuronales durante el segundo invierno de la IA y comenzó a florecer en la década de 1990. Gran parte del éxito continuo del aprendizaje automático se debió al uso del reconocimiento de caracteres y de voz, combinado con el abrumador crecimiento de Internet y el uso de computadoras personales.

El concepto de “impulso” fue compartido en 1990, en el artículo La fuerza de pobre aprendizaje, de Robert Schapire. Explicó que un conjunto de alumnos débiles puede crear un único alumno fuerte. Impulsando algoritmos reducir el sesgo durante el proceso de aprendizaje supervisado e incluir algoritmos de aprendizaje automático que sean capaces de transformar varios alumnos débiles en unos pocos fuertes. (Los estudiantes débiles hacen predicciones correctas aproximadamente el 50% del tiempo). 

La industria de los juegos de ordenador merece importantes créditos por ayudar en la evolución de la IA generativa. tarjetas gráficas 3D, los precursores de las unidades de procesamiento gráfico (GPU), se introdujeron por primera vez a principios de la década de 1990 para mejorar la presentación de los gráficos en los videojuegos. 

En 1997, Juergen Schmidhuber y Sepp Hochreiter crearon el “memoria a corto plazo”(LSTM) para ser utilizado con redes neuronales recurrentes. Actualmente, la mayoría de los entrenamientos en reconocimiento de voz utilizan esta técnica. LSTM admite tareas de aprendizaje que requieren una memoria que cubra eventos miles de pasos antes y que a menudo son importantes durante las conversaciones.

Nvidia (responsable de muchos avances en la tecnología de juegos) desarrolló una GPU avanzada en 1999, con velocidades computacionales que se incrementaron en mil. Su primera GPU se llamó GeForce 256

Fue sorprendente descubrir que las GPU se podían utilizar para algo más que videojuegos. Las nuevas GPU se aplicaron a redes neuronales artificiales, con resultados sorprendentemente positivos. GPU se han vuelto bastante útiles en el aprendizaje automático, utilizando aproximadamente 200 veces la cantidad de procesadores por chip en comparación con una unidad central de procesamiento. (Unidades centrales de procesamiento, o CPU, sin embargo, son más flexibles y realizan una selección más amplia de cálculos, mientras que las GPU tienden a adaptarse a casos de uso específicos).

Los 2000s

El Gran Reto del Reconocimiento Facial, un promoción para mejorar tecnología de reconocimiento facial, fue financiada por el gobierno de EE. UU. y se llevó a cabo entre 2004 y 2006. Dio como resultado nuevas técnicas de reconocimiento facial y rendimiento de reconocimiento facial. Los algoritmos recientemente desarrollados eran hasta diez veces más precisos que los algoritmos de reconocimiento facial utilizados en 2002. Algunos de los algoritmos podían incluso identificar diferencias entre gemelos idénticos.

La década de 2010 y los asistentes virtuales y los chatbots

El 4 de octubre de 2011, Siri, el primer asistente virtual digital que se consideró funcional, llegó como servicio con el iPhone 4S. El uso de Chatbots también aumentó significativamente. 

En 2014 se presentó el concepto de red generativa adversarial (GAN). Las GAN se utilizan para crear imágenes, vídeos y audio que parecen grabaciones auténticas de situaciones reales.          

Una red generativa adversaria utiliza dos redes neuronales que han tenido entrenamiento adversario simultáneo: una red neuronal actúa como discriminadora y la otra como generadora. El discriminador ha sido entrenado para distinguir entre datos generados y datos reales. El generador crea datos sintéticos e intenta imitar datos reales. La práctica permite que el generador mejore en la generación de grabaciones cada vez más realistas para engañar al discriminador. Las GAN pueden crear datos sintéticos que son difíciles, si no imposibles, de reconocer como artificiales.

La década de 2020 y los chatbots más inteligentes

En noviembre de 2022, OpenAI presentó ChatGPT, una IA generativa combinada con grandes modelos de lenguaje. ChatGPT y sus variaciones han alcanzado un nuevo nivel de inteligencia artificial. Estos “chatbots más inteligentes” pueden realizar investigaciones, respaldar una redacción razonablemente buena y generar videos, audio e imágenes realistas.

La combinación del entrenamiento de IA generativa con grandes modelos de lenguaje ha dado como resultado una inteligencia artificial que tiene la capacidad de pensar y razonar. También podrían tener la capacidad de "imaginar". ChatGPT ha sido acusado de alucinar, lo que podría interpretarse como un uso de la imaginación.

punto_img

Información más reciente

punto_img