Logotipo de Zephyrnet

6 mitos de la inteligencia artificial desacreditados: separando la realidad de la ficción – KDnuggets

Fecha:

Seis mitos de la inteligencia artificial desacreditados: separando la realidad de la ficción
Imagen por editor
 

La Inteligencia Artificial es sin duda la palabra de moda de nuestro tiempo. Su popularidad, particularmente con el surgimiento de aplicaciones de IA generativa como ChatGPT, lo ha llevado a la vanguardia de los debates tecnológicos.

Todo el mundo habla del impacto de las aplicaciones generadoras de IA como ChatGPT y de si es justo aprovechar sus capacidades. 

Sin embargo, en medio de toda esta tormenta perfecta, ha habido un repentino surgimiento de numerosos mitos y conceptos erróneos en torno al término Inteligencia Artificial o IA. 

¡Apuesto a que es posible que ya hayas escuchado muchos de estos!

Profundicemos en estos mitos, destruyámoslos y comprendamos la verdadera naturaleza de la IA.

Contrariamente a la creencia popular, la IA no es nada inteligente. Hoy en día, la mayoría de la gente piensa que los modelos impulsados ​​por IA son realmente inteligentes. Esto podría deberse a la inclusión del término “inteligencia” dentro del nombre “inteligencia artificial”.

Pero ¿qué significa inteligencia?

La inteligencia es un rasgo exclusivo de los organismos vivos definido como la capacidad de adquirir y aplicar conocimientos y habilidades. Esto significa que la inteligencia permite a los organismos vivos interactuar con su entorno y así aprender a sobrevivir.

La IA, por otro lado, es una simulación de máquina diseñada para imitar ciertos aspectos de esta inteligencia natural. La mayoría de las aplicaciones de IA con las que interactuamos, especialmente en plataformas comerciales y en línea, dependen del aprendizaje automático.

 

Seis mitos de la inteligencia artificial desacreditados: separando la realidad de la ficción
Imagen generada por Dall-E
 

Se trata de sistemas de inteligencia artificial especializados y entrenados en tareas específicas que utilizan grandes cantidades de datos. Se destacan en las tareas que les asignan, ya sea jugar, traducir idiomas o reconocer imágenes.

Sin embargo, fuera de su alcance, suelen ser bastante inútiles... El concepto de una IA que posee inteligencia similar a la humana en un espectro de tareas se denomina IA general, y estamos lejos de alcanzar este hito.

La carrera entre los gigantes tecnológicos a menudo gira en torno a alardear del tamaño de sus modelos de IA.

El segundo lanzamiento de LLM de código abierto de Llama nos sorprendió con una poderosa versión de 2 mil millones de funciones, mientras que Palma de Google tiene 70 mil millones de funciones y el último lanzamiento de OpenAI, ChatGPT540, brilla con 4 billones de funciones. 

Sin embargo, la cantidad de miles de millones de funciones del LLM no se traduce necesariamente en un mejor rendimiento. 

La calidad de los datos y la metodología de capacitación suelen ser determinantes más críticos del rendimiento y la precisión de un modelo. Esto ya ha sido demostrado con el Experimento con alpaca de Stanford donde un simple LLM basado en Llama con 7 mil millones de funciones podría unir los asombrosos 176 mil millones de funciones con ChatGPT 3.5.

¡Así que este es un claro NO! 

Más grande no siempre es mejor. Optimizar tanto el tamaño de los LLM como su rendimiento correspondiente democratizará el uso de estos modelos a nivel local y nos permitirá integrarlos en nuestros dispositivos diarios.

Un error común es pensar que la IA es una misteriosa caja negra, carente de transparencia. En realidad, si bien los sistemas de IA pueden ser complejos y todavía bastante opacos, se están realizando esfuerzos importantes para mejorar su transparencia y rendición de cuentas.

Los organismos reguladores están presionando por un uso ético y responsable de la IA. Movimientos importantes como el Informe de transparencia de la IA de Stanford y del Ley Europea de IA ¿Tienen como objetivo incitar a las empresas a mejorar la transparencia de su IA y proporcionar una base para que los gobiernos formulen regulaciones en este dominio emergente? 

La IA transparente se ha convertido en un punto central de discusión en la comunidad de IA, que abarca una gran variedad de cuestiones, como los procesos que permiten a las personas comprobar las pruebas exhaustivas de los modelos de IA y comprender la lógica detrás de las decisiones de IA. 

Es por eso que los profesionales de datos de todo el mundo ya están trabajando en métodos para hacer que los modelos de IA sean más transparentes. 

Entonces, si bien esto puede ser parcialmente cierto, ¡no es tan grave como lo común!

Muchos creen que los sistemas de inteligencia artificial son perfectos e incapaces de cometer errores. Esto está lejos de la verdad. Como cualquier sistema, el rendimiento de la IA depende de la calidad de sus datos de entrenamiento. Y estos datos a menudo, por no decir siempre, son creados o seleccionados por humanos.

Si estos datos contienen sesgos, el sistema de inteligencia artificial los perpetuará sin darse cuenta. 

El análisis de un equipo del MIT de modelos de lenguaje previamente entrenados ampliamente utilizados reveló sesgos pronunciados al asociar el género con ciertas profesiones y emociones.. Por ejemplo, roles como asistente de vuelo o secretaria estaban vinculados principalmente a cualidades femeninas, mientras que abogado y juez estaban relacionados con rasgos masculinos. El mismo comportamiento se ha observado en cuanto a las emociones. 

Otros sesgos detectados son los relativos a la raza. A medida que los LLM encuentran su camino hacia los sistemas de salud, surgen temores de que puedan perpetuar prácticas médicas perjudiciales basadas en la raza, reflejando los sesgos inherentes a los datos de entrenamiento.

Es esencial que la intervención humana supervise y corrija estas deficiencias, garantizando la confiabilidad de la IA. La clave está en utilizar datos representativos e imparciales y realizar auditorías algorítmicas para contrarrestar estos sesgos.

Uno de los temores más extendidos es que la IA conduzca a un desempleo masivo.

La historia, sin embargo, sugiere que si bien la tecnología puede hacer que ciertos empleos queden obsoletos, al mismo tiempo genera nuevas industrias y oportunidades.

 

Seis mitos de la inteligencia artificial desacreditados: separando la realidad de la ficción
Imagen de Etiqueta LinkedIn 
 

Por ejemplo, el Foro Económico Mundial proyectó que si bien La IA podría reemplazar 85 millones de puestos de trabajo para 2025 y creará 97 millones de nuevos.

El último y más distópico. La cultura popular, con películas como Matrix y Terminator, pinta un panorama sombrío del potencial de la IA para esclavizar a la humanidad. 

Si bien voces influyentes como Elon Musk y Stephen Hawking han expresado su preocupación, el estado actual de la IA está lejos de esta imagen distópica.

Los modelos de IA actuales, como ChatGPT, están diseñados para ayudar con tareas específicas y no poseen las capacidades o motivaciones que se describen en los cuentos de ciencia ficción. 

Así que por ahora… ¡todavía estamos a salvo!

En conclusión, a medida que la IA continúa evolucionando e integrándose en nuestra vida diaria, es crucial separar los hechos de la ficción. 

Sólo con una comprensión clara podremos aprovechar todo su potencial y abordar sus desafíos de manera responsable.

Los mitos pueden nublar el juicio e impedir el progreso. 

Armados con conocimiento y una comprensión clara del alcance real de la IA, podemos avanzar y garantizar que la tecnología sirva a los mejores intereses de la humanidad.
 
 

Josep Ferrer es un ingeniero analítico de Barcelona. Se graduó en ingeniería física y actualmente trabaja en el campo de la Ciencia de Datos aplicada a la movilidad humana. Es un creador de contenido a tiempo parcial centrado en la ciencia y la tecnología de datos. Puedes contactarlo en Etiqueta LinkedIn, Twitter or Medio.

punto_img

Información más reciente

punto_img