Logotipo de Zephyrnet

5 tareas de codificación que ChatGPT no puede realizar – KDnuggets

Fecha:

5 tareas de codificación que ChatGPT no puede realizar
Imagen del autor
 

Me gusta pensar en ChatGPT como una versión más inteligente de StackOverflow. Muy útil, pero no reemplazará a los profesionales en el corto plazo. Como ex científico de datos, pasé una gran cantidad de tiempo jugando con ChatGPT cuando salió. Me impresionó bastante su capacidad de codificación. Podría generar código bastante útil desde cero; podría ofrecer sugerencias sobre mi propio código. Fue bastante bueno depurando si le pedía ayuda con un mensaje de error.

Pero inevitablemente, cuanto más tiempo pasaba usándolo, más me topaba con sus limitaciones. Para cualquier desarrollador que tema que ChatGPT le quite el trabajo, aquí hay una lista de lo que ChatGPT no puede hacer.

 

5 tareas de codificación que ChatGPT no puede realizar

La primera limitación no tiene que ver con su capacidad, sino con la legalidad. Cualquier código generado exclusivamente por ChatGPT y copiado y pegado por usted en un producto de la empresa podría exponer a su empleador a una demanda desagradable.

Esto se debe a que ChatGPT extrae libremente fragmentos de código de los datos con los que fue entrenado, que provienen de todo Internet. "Hice que Chat gpt generara un código para mí y al instante reconocí de qué repositorio de GitHub obtuvo una gran parte del mismo". explicado Usuario de Reddit ChunkyHabaneroSalsa.

En última instancia, no se sabe de dónde proviene el código de ChatGPT ni bajo qué licencia estaba. E incluso si se generó completamente desde cero, cualquier cosa creada por ChatGPT no tiene derechos de autor. Como escriben los escritores de Bloomberg Law Shawn Helms y Jason Krieser ponlo, "Un 'trabajo derivado' es 'un trabajo basado en uno o más trabajos preexistentes'. ChatGPT está capacitado en trabajos preexistentes y genera resultados basados ​​en esa capacitación".

Si utiliza ChatGPT para generar código, puede tener problemas con sus empleadores.

Aquí tienes una prueba divertida: haz que ChatGPT cree código que ejecute un análisis estadístico en Python.

¿Es el análisis estadístico correcto? Probablemente no. ChatGPT no sabe si los datos cumplen con los supuestos necesarios para que los resultados de la prueba sean válidos. ChatGPT tampoco sabe qué quieren ver las partes interesadas.

Por ejemplo, podría pedirle a ChatGPT que me ayude a determinar si existe una diferencia estadísticamente significativa en los índices de satisfacción entre diferentes grupos de edad. ChatGPT sugiere una prueba T de muestra independiente y no encuentra diferencias estadísticamente significativas en los grupos de edad. Pero la prueba t no es la mejor opción en este caso por varias razones, como el hecho de que puede haber varios grupos de edad o que los datos no se distribuyen normalmente.

 

5 tareas de codificación que ChatGPT no puede realizar
Imagen de decipherzone.com
 

A científico de datos de pila completa sabría qué suposiciones verificar y qué tipo de prueba ejecutar, y posiblemente podría darle a ChatGPT instrucciones más específicas. Pero ChatGPT por sí solo generará felizmente el código correcto para el análisis estadístico incorrecto, haciendo que los resultados sean poco confiables e inutilizables.

Para cualquier problema como ese que requiera un pensamiento más crítico y una mayor resolución de problemas, ChatGPT no es la mejor opción.

Cualquier científico de datos le dirá que parte del trabajo es comprender e interpretar las prioridades de las partes interesadas en un proyecto. ChatGPT, o cualquier IA, no puede comprenderlos ni gestionarlos por completo.

Por un lado, las prioridades de las partes interesadas a menudo implican una toma de decisiones compleja que tiene en cuenta no sólo los datos, sino también los factores humanos, los objetivos comerciales y las tendencias del mercado.

Por ejemplo, en el rediseño de una aplicación, es posible que descubra que el equipo de marketing quiere priorizar las funciones de participación del usuario, el equipo de ventas está impulsando funciones que respalden la venta cruzada y el equipo de atención al cliente necesita mejores funciones de soporte en la aplicación para ayudar a los usuarios.

ChatGPT puede proporcionar información y generar informes, pero no puede tomar decisiones matizadas que se alineen con los intereses variados (y a veces competitivos) de las diferentes partes interesadas.

Además, la gestión de las partes interesadas a menudo requiere un alto grado de inteligencia emocional: la capacidad de empatizar con las partes interesadas, comprender sus preocupaciones a nivel humano y responder a sus emociones. ChatGPT carece de inteligencia emocional y no puede gestionar los aspectos emocionales de las relaciones con las partes interesadas.

Puede que no piense en esto como una tarea de codificación, pero el científico de datos que actualmente trabaja en el código para el lanzamiento de esa nueva función sabe en qué medida está trabajando con las prioridades de las partes interesadas.

A ChatGPT no se le ocurre nada realmente novedoso. Sólo puede remezclar y replantear lo que ha aprendido de sus datos de entrenamiento.

 

5 tareas de codificación que ChatGPT no puede realizar
Imagen de theinsaneapp.com
 

¿Quieres saber cómo cambiar el tamaño de la leyenda en tu gráfico R? No hay problema: ChatGPT puede extraer miles de respuestas de StackOverflow a preguntas que plantean lo mismo. Pero (usando un ejemplo que le pedí a ChatGPT que generara), ¿qué pasa con algo con lo que es poco probable que se haya encontrado antes, como organizar una comida comunitaria donde el plato de cada persona debe contener un ingrediente que comience con la misma letra que su apellido y usted desea para asegurarse de que haya una buena variedad de platos.

Cuando probé este mensaje, me dio un código Python que decidió el nombre del plato tenía que coincidir con el apellido, ni siquiera capturar correctamente el requisito del ingrediente. También quería que creara 26 categorías de platos, una por letra del alfabeto. No fue una respuesta inteligente, probablemente porque era un problema completamente nuevo.

Por último, pero no menos importante, ChatGPT no puede codificar de forma ética. No posee la capacidad de emitir juicios de valor ni comprender las implicaciones morales de un fragmento de código como lo hace un ser humano.

La codificación ética implica considerar cómo el código podría afectar a diferentes grupos de personas, garantizar que no discrimine ni cause daño y tomar decisiones que se alineen con los estándares éticos y las normas sociales.

Por ejemplo, si le pide a ChatGPT que escriba código para un sistema de aprobación de préstamos, podría generar un modelo basado en datos históricos. Sin embargo, no puede comprender las implicaciones sociales de ese modelo que potencialmente niega préstamos a comunidades marginadas debido a sesgos en los datos. Dependería de los desarrolladores humanos reconocer la necesidad de justicia y equidad, buscar y corregir sesgos en los datos y garantizar que el código se alinee con las prácticas éticas.

Vale la pena señalar que la gente tampoco es perfecta en eso: alguien codificó La herramienta de contratación sesgada de Amazon, y alguien codificó el Categorización de fotos de Google que identificaba a los negros como gorilas. Pero los humanos lo hacemos mejor. ChatGPT carece de la empatía, la conciencia y el razonamiento moral necesarios para codificar de forma ética.

Los seres humanos pueden comprender el contexto más amplio, reconocer las sutilezas del comportamiento humano y mantener debates sobre el bien y el mal. Participamos en debates éticos, sopesamos los pros y los contras de un enfoque particular y asumimos responsabilidad por nuestras decisiones. Cuando cometemos errores, podemos aprender de ellos de una manera que contribuya a nuestro crecimiento moral y comprensión.

Me encantó Redditor Empty_Experience_10 tomar en él: “Si todo lo que haces es programar, no eres ingeniero de software y sí, tu trabajo será reemplazado. Si cree que a los ingenieros de software se les paga mucho porque pueden escribir código, significa que tiene un malentendido fundamental de lo que es ser ingeniero de software”.

Descubrí que ChatGPT es excelente para depurar, revisar algo de código y ser un poco más rápido que buscar esa respuesta de StackOverflow. Pero gran parte de la “codificación” es más que simplemente introducir Python en un teclado. Es saber cuáles son los objetivos de tu negocio. Es comprender el cuidado que hay que tener con las decisiones algorítmicas. Se trata de construir relaciones con las partes interesadas, comprender realmente lo que quieren y por qué, y buscar una manera de hacerlo posible.

Es contar historias, es saber cuándo elegir un gráfico circular o de barras y es comprender la narrativa que los datos intentan contarle. Se trata de poder comunicar ideas complejas en términos simples que las partes interesadas puedan comprender y sobre las cuales tomar decisiones.

ChatGPT no puede hacer nada de eso. Mientras puedas, tu trabajo estará seguro.
 
 

Nate Rosidi es científico de datos y en estrategia de producto. También es profesor adjunto de enseñanza de análisis y es el fundador de StrataScratch, una plataforma que ayuda a los científicos de datos a prepararse para sus entrevistas con preguntas de entrevistas reales de las principales empresas. Conéctate con él en Gorjeo: StrataScratch or Etiqueta LinkedIn.

punto_img

Información más reciente

punto_img