Logotipo de Zephyrnet

Olvídese de la fatalidad y las exageraciones de la IA, hagamos que las computadoras sean útiles

Fecha:

Enfoque de sistemas Revelación completa: tengo una historia con la IA, ya que coqueteé con ella en la década de 1980 (¿recuerdas los sistemas expertos?) y luego evité con seguridad el invierno de la IA de finales de la década de 1980 al desviarme hacia la verificación formal antes de aterrizar finalmente en las redes como mi especialidad en 1988.

Y así como mi colega de Enfoque de Sistemas, Larry Peterson, tiene clásicos como el manual de Pascal en su estantería, yo todavía tengo un par de libros sobre IA de los años ochenta en la mía, en particular el de PH Winston. Inteligencia artificial (1984). Hojear ese libro es toda una maravilla, en el sentido de que gran parte parece haber sido escrito ayer. Por ejemplo, el prefacio comienza así:

El campo de la Inteligencia Artificial ha cambiado enormemente desde que se publicó la primera edición de este libro. Las materias sobre Inteligencia Artificial son de rigor para los estudiantes universitarios en ciencias de la computación, y la mayoría de las revistas de noticias de renombre presentan regularmente historias sobre Inteligencia Artificial. Parte del motivo del cambio es que se han acumulado resultados sólidos.

También me intrigó ver algunos ejemplos de 1984 de “lo que pueden hacer las computadoras”. Un ejemplo fue la resolución de problemas de cálculo muy difíciles, algo notable porque la aritmética precisa parece estar más allá de las capacidades de los sistemas actuales basados ​​en LLM.

Si el cálculo ya era solucionable mediante computadoras en 1984, mientras que la aritmética básica deja perplejos a los sistemas que hoy consideramos de última generación, tal vez la cantidad de progreso en IA en los últimos 40 años no sea tan grande como parece a primera vista. (Dicho esto, incluso hay mejor Los sistemas actuales que abordan el cálculo, simplemente no se basan en LLM y no está claro si alguien se refiere a ellos como IA).

Una de las razones por las que compré mi copia antigua de Winston fue para ver qué tenía que decir sobre la definición de IA, porque ese también es un tema controvertido. Su primera opinión sobre esto no es muy alentadora:

La Inteligencia Artificial es el estudio de ideas que permiten que las computadoras sean inteligentes.

Bueno, está bien, eso es bastante circular, ya que es necesario definir la inteligencia de alguna manera, como admite Winston. Pero luego continúa afirmando dos objetivos de la IA:

  1. Para hacer las computadoras más útiles
  2. Comprender los principios que hacen posible la inteligencia.

En otras palabras, es difícil definir la inteligencia, pero tal vez el estudio de la IA nos ayude a comprender mejor qué es. Me atrevería a decir que todavía estamos debatiendo qué constituye inteligencia 40 años después. El primer objetivo parece loable, pero se aplica claramente a muchas tecnologías distintas de la IA.

Este debate sobre el significado de “IA” continúa pesando sobre la industria. Me he encontrado con muchas quejas de que no necesitaríamos el término Inteligencia General Artificial, también conocido como AGI, si tan solo el término IA no hubiera estado tan contaminado por personas que comercializan modelos estadísticos como IA. Realmente no creo en esto. Hasta donde puedo decir, la IA siempre ha cubierto una amplia gama de técnicas informáticas, la mayoría de las cuales no engañarían a nadie haciéndoles pensar que la computadora muestra niveles humanos de inteligencia.

Cuando comencé a retomar el campo de la IA hace unos ocho años, las redes neuronales (que algunos de mis colegas utilizaban en 1988 antes de caer en desgracia) habían regresado de manera sorprendente, hasta el punto de que el reconocimiento de imágenes por tecnología profunda las redes neuronales tenían superado la velocidad y precisión de los humanos, aunque con algunas salvedades. Este aumento de la IA provocó un cierto nivel de ansiedad entre mis colegas de ingeniería en VMware, quienes sintieron que se estaba produciendo un cambio tecnológico importante que (a) la mayoría de nosotros no entendíamos (b) nuestro empleador no estaba en condiciones de aprovecharlo. .

Mientras me lanzaba a la tarea de aprender cómo funcionan las redes neuronales (con un gran asistencia de Rodney Brooks) Me di cuenta de que el lenguaje que utilizamos para hablar sobre los sistemas de IA tiene un impacto significativo en cómo pensamos sobre ellos. Por ejemplo, en 2017 oímos mucho sobre “aprendizaje profundo” y “redes neuronales profundas”, y el uso de la palabra “profundo” tiene un doble significado interesante. Si digo que tengo “pensamientos profundos”, podrías imaginar que estoy pensando en el significado de la vida o en algo igualmente importante, y “aprendizaje profundo” parece implicar algo similar.

Pero en realidad lo “profundo” en “aprendizaje profundo” es una referencia a la profundidad, medida en número de capas, de la red neuronal que sustenta el aprendizaje. Así que no es “profundo” en el sentido de que tenga significado, sino simplemente profundo de la misma manera que una piscina tiene un extremo profundo: el que tiene más agua. Este doble significado contribuye a la ilusión de que las redes neuronales están "pensando".

Una confusión similar se aplica al “aprendizaje”, que es donde Brooks fue tan útil: una red neuronal profunda (DNN) mejora en una tarea cuanto más datos de entrenamiento está expuesta, por lo que en ese sentido “aprende” de la experiencia, pero la forma en que aprende no se parece en nada a la forma en que un humano aprende cosas.

Como ejemplo de cómo aprenden las DNN, considere AlphaGo, el sistema de juego que utilizaba redes neuronales para derrota grandes maestros humanos. Según los desarrolladores del sistema, mientras que un humano manejaría fácilmente un cambio de tamaño del tablero (normalmente una cuadrícula de 19×19), un pequeño cambio dejaría a AlphaGo impotente hasta que tuviera tiempo de entrenar con nuevos datos del tablero redimensionado.

Para mí, esto ilustra claramente cómo el "aprendizaje" de las DNN es fundamentalmente diferente al aprendizaje humano, incluso si usamos la misma palabra. La red neuronal no puede generalizar a partir de lo que ha "aprendido". Y destacando este punto, AlphaGo fue recientemente derrotado por un oponente humano que utilizó repetidamente un estilo de juego que no había estado en los datos de entrenamiento. Esta incapacidad para manejar situaciones nuevas parece ser un sello distintivo de los sistemas de IA.

El lenguaje importa

El lenguaje utilizado para describir los sistemas de IA sigue influyendo en nuestra forma de pensar sobre ellos. Desafortunadamente, dado el rechazo razonable a la reciente exageración de la IA y algunas fallas notables con los sistemas de IA, ahora puede haber tantas personas convencidas de que la IA es completamente inútil como miembros del bando que dice que la IA está a punto de lograr una inteligencia similar a la humana. .

Soy muy escéptico con respecto a este último campo, como se describió anteriormente, pero también creo que sería desafortunado perder de vista el impacto positivo que pueden tener los sistemas de inteligencia artificial (o, si se prefiere, los sistemas de aprendizaje automático).

Actualmente estoy ayudando a un par de colegas a escribir un libro sobre aplicaciones de aprendizaje automático para redes, y no debería sorprender a nadie saber que hay muchos problemas de redes que son susceptibles de soluciones basadas en ML. En particular, los rastros del tráfico de la red son fuentes fantásticas de datos, y los datos de entrenamiento son el alimento con el que prosperan los sistemas de aprendizaje automático.

Aplicaciones que van desde la prevención de denegación de servicio hasta la detección de malware y la geolocalización pueden hacer uso de algoritmos de aprendizaje automático, y el objetivo de este libro es ayudar a las personas que trabajan en redes a comprender que el aprendizaje automático no es un polvo mágico que se espolvorea sobre los datos para obtenerlos. respuestas, sino un conjunto de herramientas de ingeniería que pueden aplicarse selectivamente para producir soluciones a problemas reales. En otras palabras, no es ni una panacea ni un placebo sobrevalorado. El objetivo del libro es ayudar a los lectores a comprender qué herramientas de aprendizaje automático son adecuadas para diferentes clases de problemas de redes.

Una historia que me llamó la atención hace algún tiempo fue el uso de la IA para ayudar a Network Rail en el Reino Unido. gestionar la vegetación que crece junto a las líneas ferroviarias británicas. La tecnología clave de “IA” aquí es el reconocimiento de imágenes (para identificar especies de plantas), aprovechando el tipo de tecnología que las DNN ofrecieron durante la última década. Quizás no sea tan emocionante como los sistemas de IA generativa que captaron la atención del mundo en 2023, pero sí es una aplicación buena y práctica de una técnica que se encuentra bajo el paraguas de la IA.

Mi tendencia en estos días es intentar utilizar el término “aprendizaje automático” en lugar de IA cuando sea apropiado, con la esperanza de evitar tanto la exageración como las reacciones alérgicas que ahora produce la “IA”. Y con las palabras de Patrick Winston frescas en mi mente, podría empezar a hablar de “hacer que las computadoras sean útiles”. ®

punto_img

Información más reciente

punto_img