Logotipo de Zephyrnet

Cómo Mejorar la Confiabilidad de ChatGPT: Técnicas y Consejos

Fecha:

Los modelos de lenguaje grande (LLM) como GPT-4 han progresado significativamente en el procesamiento y generación de lenguaje natural.

Los modelos de lenguaje grande (LLM) como GPT-4 han progresado significativamente en el procesamiento y generación de lenguaje natural. Estos modelos son capaces de generar texto de alta calidad con notable fluidez y coherencia. Sin embargo, a menudo fallan cuando se les asignan operaciones complejas o razonamiento lógico. En este artículo, discutiremos los métodos para aumentar la confiabilidad de ChatGPT según lo sugerido por OpenAI. Junto con esto, también discutiremos algunas técnicas e indicaciones adicionales que otros investigadores han propuesto.

Lea también ¿Qué es ChatGPT? Todo lo que necesitas saber

Las capacidades del modelo dependen del contexto

Un error común que cometen quienes trabajan con GPT-3 es asumir que sus capacidades son fijas en todos los contextos. Si GPT-3 responde incorrectamente a una pregunta que requiere lógica simple, no significa necesariamente que sea incapaz de una razón simple. Ocasionalmente, GPT-3 se puede arreglar con un mensaje mejor que dirija el modelo hacia la salida deseada.

Dividir tareas complejas en subtareas más simples

Dividir tareas complicadas en partes más simples es una forma de darle a un modelo como ChatGPT más tiempo y espacio para pensar. Dividir instrucciones complejas en subtareas más pequeñas puede ayudar a mantener el modelo enfocado en cada subtarea. También ayuda a darle más tiempo para razonar cada paso.

Por ejemplo, si le pedimos a un modelo que resuma un texto extenso en su idioma original, puede pasar al inglés. Sin embargo, si dividimos la tarea en subtareas más cortas, podemos guiar el modelo hacia un resultado más preciso.

Lea también Cómo usar ChatGPT en todo su potencial: consejos e indicaciones

Pídale al modelo que explique primero, luego responda

Pídale al modelo que explique primero, luego responda | aviso | chatGPT | GPT |

Incitar al modelo a razonar la solución gradualmente en lugar de apresurarse a llegar a la conclusión de inmediato es otro método efectivo para mejorar la precisión de las respuestas. Pensar en voz alta es una estrategia que puede aumentar significativamente la probabilidad de obtener la respuesta correcta. Simplemente agregar Pensemos en este paso a paso a las respuestas es el método más simple para obtener un modelo que explique la solución.

Ejemplos de pocos disparos

Podemos pedirle al modelo que explique sus respuestas de muchas maneras, incluido el uso de un ejemplo de algunas tomas. Esta técnica consiste en demostrar algunos ejemplos y es estudiada por investigadores de Google. Con este método, podemos generar un conjunto de datos de explicaciones que podrían usarse para ajustar un modelo para obtener el máximo rendimiento.

Modelos afinados

Deberá ajustar un modelo personalizado para obtener el mejor rendimiento posible en una tarea. Eric Zelikman, Yuhuai Wu y otros publicaron un método innovador en 2022 que emplea un indicador de pocas tomas para producir un conjunto de datos de explicaciones que podrían usarse para ajustar un modelo. El objetivo es generar explicaciones candidatas utilizando un indicador de pocos disparos y mantener solo aquellas que conducen a la respuesta correcta.

Solicitud de inferencia de selección

Dividir el mensaje único para crear explicaciones y respuestas en segmentos más pequeños es una extensión del método de cadena de pensamiento. Un mensaje (un "mensaje de selección") primero elige un subconjunto relevante de hechos del texto. Un mensaje posterior (el "mensaje de inferencia") concluye los datos seleccionados. Al alternar estas señales, uno puede producir un ciclo de razonamiento que lleva a una conclusión.

Lea también Ingeniería rápida: trayectoria profesional lucrativa en ascenso Era de los chatbots con IA

Incitación de menos a más

Las indicaciones de menos a más son un método para dividir las tareas de razonamiento en subtareas más manejables y confiables. Para solicitar el modelo como ChatGPT, un LLM, con algo como "Para resolver una pregunta, primero debemos resolver:" el objetivo es obtener una subtarea de ella. El modelo puede entonces resolver habiendo completado esa subtarea.

Incitación mayéutica

Técnica de incitación mayéutica | Fiabilidad de ChatGPT | GPT |

A diferencia de las técnicas anteriores, que intentan maximizar la probabilidad de respuestas correctas, otro enfoque utiliza GPT-3 para generar un árbol de posibles explicaciones (tanto correctas como incorrectas) y luego analiza sus relaciones para adivinar qué conjunto es el correcto. Esta técnica se acuñó como incitación mayéutica. Funciona construyendo un árbol mayéutico, donde cada nodo es una afirmación que puede ser verdadera o falsa.

Lea también OpenAI con Andrew Ng lanza curso sobre ingeniería rápida (acceso de tiempo libre limitado)

Verificadores

Otra técnica esencial para mejorar el desempeño de la tarea es entrenar un modelo verificador o discriminador para evaluar los resultados del modelo generativo primario. Si el discriminador rechaza la salida, puede volver a muestrear el modelo generativo hasta que obtenga una salida aceptable.

Conclusión

La investigación sobre LLM es muy activa y evoluciona rápidamente. Los investigadores no solo quieren seguir mejorando los modelos. Pero también continúan mejorando nuestra comprensión de cómo emplearlos mejor. Si bien las mejores prácticas futuras pueden eclipsar las técnicas específicas mencionadas aquí, los principios generales detrás de ellas probablemente seguirán siendo una parte vital del conjunto de herramientas de cualquier usuario experto. Al usar estos métodos y mantenernos actualizados sobre los nuevos desarrollos, podemos aumentar la confiabilidad de ChatGPT y otros LLM.

Más información: Una introducción a los modelos de lenguaje grande (LLM)

punto_img

Información más reciente

punto_img