Logotipo de Zephyrnet

Post GPT-4: Respondiendo a las preguntas más frecuentes sobre IA

Fecha:

Post GPT-4: Respondiendo a las preguntas más frecuentes sobre IA
Imagen del autor
 

Vivimos tiempos emocionantes y extraños. La IA generativa, como ChatGPT, lo ha cambiado todo. Hemos visto a compañías como Google bajo presión por primera vez, hay incertidumbre en el mercado laboral actual y el desarrollo de código abierto funciona a toda máquina. Es difícil mantenerse al día con el desarrollo de la IA y la desinformación.  

En este blog, intentaré responder algunas de las preguntas más frecuentes sobre la IA. Estas respuestas se basan en las opiniones que he desarrollado al escribir y leer sobre el desarrollo reciente de la IA. 

¿Cuál es mejor: código abierto o código cerrado? 

En mi opinión, el desarrollo de IA tanto de código abierto como de código cerrado es necesario. Debe comprender que la columna vertebral de ChatGPT es Transformers que es de código abierto y desarrollado por un equipo de Google Brain. Sin desarrollo de código abierto, tendremos una innovación lenta. Hay tantos proyectos liderados por la comunidad que están ejecutando grandes corporaciones. 

Por otro lado, las fuentes cerradas tienen el equipo, los recursos y el capital adecuados para desarrollar productos pulidos. En el caso de OpenAI, DALLE 2 y ChatGPT requieren múltiples GPU y, a veces, el costo de solo experimentar puede ascender a varios millones. Es una aplicación limpia y libre de errores. 

Si me preguntas, diría que el código abierto es mejor. Los proyectos de código abierto están disponibles públicamente, son transparentes, impulsan la innovación y los desarrolladores pueden ganar dinero vendiendo licencias o proporcionando funciones adicionales. 

¿La IA reemplazará por completo a los trabajadores y artistas tecnológicos?

No. Déjame explicarte en términos simples. La IA nunca reemplazará ningún trabajo. Está aquí para ayudarnos. Habrá un gran cambio cultural en el lugar de trabajo. Las personas que aprovechan las herramientas de IA reemplazarán gradualmente a quienes aún realizan tareas manuales.

Sé que Dalle-2, Mid Journey, ChatGPT y GPT-4 son geniales, pero confía en mí, no son mejores que los humanos promedio. ChatGPT comete errores y no comprende tareas y conceptos complejos. Por ejemplo, si le pide a ChatGPT que desarrolle una aplicación adecuada con múltiples integraciones, no podrá comprender la imagen completa. Tienes que hacer múltiples cambios manuales para hacer las cosas bien. 

¿Cuáles son los riesgos potenciales de la IA generativa y cómo puede evitarlos? 

  1. Problema de derechos de autor: estos modelos se desarrollan sobre datos públicos y algunos privados que están bajo la ley de derechos de autor. Su arduo trabajo es utilizado por alguna empresa para desarrollar un producto y no recibe compensación. Podemos resolverlo aprobando leyes de IA.
  2. Seguridad y privacidad: ChatGPT se ha vuelto más grande que cualquier otra cosa y es difícil mantener seguro el gigantesco sistema. Hubo casos en que los usuarios se quejaron de que estaban mirando el historial de otras personas. Aparte de eso, está permitiendo que OpenAI acceda a su chat y, para una empresa, es una preocupación. Puede resolver este problema creando su propia aplicación ChatGPT utilizando modelos y kits de herramientas de código abierto. Verificar OpenChatKit: Alternativa ChatGPT de código abierto.
  3. Plagio: los institutos educativos están luchando porque los estudiantes utilizan estas herramientas para enviar tareas, desarrollar proyectos e incluso escribir la tesis. Algunas herramientas gratuitas como Clasificador de texto OpenAI AI puede ayudar a los profesores a detectar el trabajo generado. También puedes comprobar 5 herramientas gratuitas para detectar ChatGPT, GPT3 y GPT2.
  4. Desinformación y Abuso: Los modelos de lenguaje extenso como ChatGPT se pueden usar para campañas masivas de desinformación o incluso abuso en línea. Puede resolver este problema utilizando el marcas de agua la técnica.

¿Por qué Elon Musk y otros líderes tecnológicos quieren pausar el desarrollo de la IA durante 6 meses? 

An carta abierta, firmado por Elon Musk y 11,761 personas, incluidos expertos en inteligencia artificial, ha sido emitido por la organización sin fines de lucro Future of Life Institute. La carta pide una suspensión temporal del desarrollo de IA avanzada durante seis meses. Los signatarios instan a los laboratorios de IA a evitar entrenar cualquier tecnología que supere las capacidades de GPT-4 de OpenAI, que se lanzó recientemente.

Lo que esto significa es que los líderes de IA piensan que los sistemas de IA con inteligencia humana y competitiva pueden plantear riesgos profundos para la sociedad y la humanidad. 

En primer lugar, es imposible detener el desarrollo. ¿Cómo van a detener el desarrollo de código abierto o los desarrollos realizados por países como China? El gato está fuera de la caja. Lo que podemos hacer es trabajar para que sea seguro y protegido.  

En mi opinión, creo que también hay un aspecto comercial en esta carta abierta. Muchas empresas no logran lanzar aplicaciones exitosas como GPT-4 y necesitan 6 meses de respiro para desarrollar y competir con Microsoft y OpenAI. 

¿Lo que sigue? ¿Seremos capaces de ver AGI en nuestra vida? 

Veremos mucho desarrollo en la multimodalidad donde el modelo podrá tomar entrada como imagen, video y audio y salida de texto, imagen y audio. Por ejemplo, si le pide a AI que escriba un blog técnico, agregará texto, bloques de código e imágenes para crear un blog adecuado que pueda publicar. O puede hablar con una IA como una persona y le responderá a través de un audio como Jarvis de Iron Man. 

En el futuro, verá una mayor adopción de la IA en nuestra vida laboral y abrirá un nuevo campo de estudio como la ingeniería rápida. 

Lo que sí sé con certeza es que estamos lejos de AGI (Inteligencia General Artificial), una máquina consciente de sí misma que puede pensar y decidir por sí misma. Estos modelos y aplicaciones de IA se basan en datos generados por humanos, y para que la IA supere a los humanos en todos los niveles, necesita aprender por sí misma. Entonces, no veré AGI en mi vida, pero tengo esperanzas. 

¿Deberías tener miedo de AGI? Supongo que el tiempo lo dirá.
 
 
Abid Ali Awan (@ 1abidaliawan) es un profesional científico de datos certificado al que le encanta crear modelos de aprendizaje automático. Actualmente, se está enfocando en la creación de contenido y escribiendo blogs técnicos sobre aprendizaje automático y tecnologías de ciencia de datos. Abid tiene una Maestría en Gestión de Tecnología y una licenciatura en Ingeniería de Telecomunicaciones. Su visión es construir un producto de IA utilizando una red neuronal gráfica para estudiantes que luchan contra enfermedades mentales.
 

punto_img

Información más reciente

punto_img