Logotipo de Zephyrnet

Las 7 estrategias principales para mitigar las alucinaciones en los LLM

Fecha:

La introducción de modelos de lenguaje grandes (LLM) ha supuesto un importante cambio de paradigma en inteligencia artificial (AI) y aprendizaje automático (ML)) campos. Con sus notables avances, los LLM ahora pueden generar contenido sobre diversos temas, abordar consultas complejas y mejorar sustancialmente la satisfacción del usuario. Sin embargo, junto con su progresión, ha surgido un nuevo desafío: las alucinaciones. Este fenómeno ocurre cuando los LLM producen texto erróneo, sin sentido o inconexo. Estos sucesos plantean riesgos y desafíos potenciales para las organizaciones que aprovechan estos modelos. Particularmente preocupantes son las situaciones que involucran la difusión de información errónea o la creación de material ofensivo. 

En enero de 2024, las tasas de alucinaciones de los modelos disponibles públicamente oscilan entre aproximadamente el 3% y el 16% [1]. En este artículo, delinearemos varias estrategias para mitigar este riesgo de manera efectiva.

Tabla de contenidos.

Ingeniería/ajuste de avisos contextuales

La ingeniería rápida es el proceso de diseñar y refinar las instrucciones alimentadas al modelo de lenguaje grande para obtener el mejor resultado posible. Se requiere una combinación de experiencia y creatividad para elaborar las mejores indicaciones para provocar respuestas o comportamientos específicos de los LLM. Diseñar indicaciones que incluyan instrucciones explícitas, señales contextuales o técnicas de encuadre específicas ayuda a guiar el proceso de generación de LLM. Al proporcionar orientación y contexto claros, la ingeniería de indicaciones de GPT reduce la ambigüedad y ayuda al modelo a generar respuestas más confiables y coherentes.

Hoja de referencia de ingeniería rápida

Elementos de una indicación

Esta es la lista de elementos que componen un mensaje bien elaborado:

  • Antecedentes: Introducir detalles de fondo o proporcionar una breve introducción ayuda al LLM a comprender el tema y sirve como punto de partida para la discusión.
  • Instrucciones: Elaborar preguntas claras y concisas garantiza que la respuesta del modelo se mantenga centrada en el tema deseado. Por ejemplo, se podría pedirle al modelo que “resuma el capítulo en menos de 100 palabras usando un inglés sencillo”.
  • Ejemplos de entrada: Proporcionar ejemplos específicos al modelo ayuda a generar respuestas personalizadas. Por ejemplo, si un cliente se queja: "El producto que recibí está dañado", el modelo puede proponer una respuesta adecuada y sugerir posibles opciones de reembolso.
  • Formato de salida: Especificar el formato deseado para la respuesta, como una lista de viñetas, un párrafo o un fragmento de código, guía al LLM en la estructuración de su resultado en consecuencia. Por ejemplo, se podrían solicitar “instrucciones paso a paso utilizando listas numeradas”.
  • Razonamiento: Ajustar y refinar las indicaciones de forma iterativa en función de las respuestas del modelo puede mejorar significativamente la calidad del resultado. Las indicaciones en cadena de pensamiento, por ejemplo, dividen los problemas de varios pasos en pasos intermedios, lo que permite capacidades de razonamiento complejas más allá de los métodos de indicaciones estándar.
  • Ajuste rápido: Ajustar las indicaciones en función de casos de uso o dominios específicos mejora el rendimiento del modelo en tareas o conjuntos de datos particulares.
  • Refinamiento mediante consultas interactivas: Ajustar y refinar de forma iterativa las indicaciones basadas en las respuestas del modelo mejora la calidad de los resultados y permite al LLM utilizar el razonamiento para derivar la respuesta final, lo que reduce significativamente las alucinaciones.

Encuadre positivo

Se ha observado que utilizar instrucciones positivas en lugar de negativas produce mejores resultados (es decir, "hacer" en lugar de "no hacer"). Ejemplo de encuadre negativo:

No haga al usuario más de 1 pregunta a la vez. Ejemplo de encuadre positivo: cuando le pida información al usuario, haga un máximo de 1 pregunta a la vez.

Lea también ¿Los LLM están siendo más astutos que los humanos al elaborar información errónea persuasiva?

Recuperación de Generación Aumentada (RAG)

Recuperación Generación Aumentada (RAG) es el proceso de potenciar el modelo LLM con conocimientos actualizados y específicos del dominio para aumentar la precisión y la auditabilidad de la respuesta del modelo. Esta es una técnica poderosa que combina ingeniería rápida con recuperación de contexto de fuentes de datos externas para mejorar el rendimiento y la relevancia de los LLM. Al basar el modelo en información adicional, permite respuestas más precisas y conscientes del contexto.

Este enfoque puede resultar beneficioso para diversas aplicaciones, como chatbots de respuesta a preguntas, motores de búsqueda y motores de conocimiento. Al utilizar RAG, los LLM pueden presentar información precisa con atribución de fuente, lo que mejora la confianza del usuario y reduce la necesidad de capacitación continua del modelo sobre nuevos datos.

Ajuste de parámetros del modelo

Los diferentes parámetros del modelo, como la temperatura, la penalización de frecuencia y el top-p, influyen significativamente en el resultado creado por los LLM. Los ajustes de temperatura más altos fomentan una mayor aleatoriedad y creatividad, mientras que los ajustes más bajos hacen que el resultado sea más predecible. Aumentar el valor de la penalización de frecuencia hace que el modelo utilice palabras repetidas con mayor moderación. De manera similar, aumentar el valor de la penalización por presencia aumenta la probabilidad de generar palabras que aún no se han utilizado en la salida.

El parámetro top-p regula la variedad de respuestas estableciendo un umbral de probabilidad acumulativa para la selección de palabras. En general, estos parámetros permiten realizar ajustes y lograr un equilibrio entre generar respuestas variadas y mantener la precisión. Por lo tanto, ajustar estos parámetros disminuye la probabilidad de que el modelo imagine respuestas.

Desarrollo/enriquecimiento del modelo

  • Ajuste fino de un LLM previamente capacitado: El ajuste fino es el proceso en el que entrenamos un modelo previamente entrenado con un conjunto de datos etiquetados más pequeño y específico para una tarea. Al realizar ajustes en un conjunto de datos de una tarea específica, el LLM puede captar los matices de ese dominio. Esto es especialmente vital en áreas con jerga, conceptos o estructuras especializadas, como documentos legales, textos médicos o informes financieros. Como resultado, cuando se enfrenta a ejemplos invisibles de un dominio o tarea específica, es probable que el modelo haga predicciones o genere resultados con mayor precisión y relevancia. 
  • LLM totalmente personalizado: Un modelo LLM se puede desarrollar desde cero sólo a partir de conocimientos que sean precisos y relevantes para su dominio. Hacerlo ayudará al modelo a comprender mejor las relaciones y patrones dentro de un tema en particular. Esto reducirá las posibilidades de sufrir alucinaciones, aunque no las eliminará por completo. Sin embargo, crear un LLM propio es costoso desde el punto de vista computacional y requiere una enorme experiencia.

Supervisión humana

Incorporar la supervisión humana, preferiblemente por parte de expertos en la materia con procesos de revisión sólidos para validar los resultados generados por el modelo de lenguaje, particularmente en aplicaciones sensibles o de alto riesgo donde las alucinaciones pueden tener consecuencias significativas, puede ayudar enormemente a lidiar con la información errónea. Los revisores humanos pueden identificar y corregir textos alucinatorios antes de difundirlos o utilizarlos en contextos críticos.

Educación y concienciación general del usuario

Es fundamental educar a los usuarios y a las partes interesadas sobre las limitaciones y los riesgos de los modelos lingüísticos, incluido su potencial para generar texto engañoso. Deberíamos alentar a los usuarios a evaluar y verificar cuidadosamente los resultados, especialmente cuando la precisión es esencial. Es importante desarrollar y seguir pautas y políticas éticas que rijan el uso de modelos de lenguaje, particularmente en áreas donde la información engañosa podría causar daño. Debemos establecer pautas claras para el uso responsable de la IA, incluida la moderación de contenido, la detección de información errónea y la prevención de contenido ofensivo.

La investigación continua sobre la mitigación de las alucinaciones LLM reconoce que, si bien la eliminación completa puede ser un desafío, la implementación de medidas preventivas puede disminuir sustancialmente su frecuencia. Es crucial enfatizar la importancia de un compromiso responsable y reflexivo con los sistemas de IA y cultivar una mayor conciencia para mantener el equilibrio necesario en la utilización de la tecnología de manera efectiva sin causar daño.

Conclusión

La prevalencia de alucinaciones en los modelos de lenguaje grande (LLM) plantea un desafío importante a pesar de varios esfuerzos empíricos para mitigarlas. Si bien estas estrategias ofrecen información valiosa, la cuestión fundamental de la eliminación total sigue sin respuesta.

Espero que este artículo haya arrojado luz sobre las alucinaciones en los LLM y haya proporcionado estrategias para abordarlas. Déjame saber tu opinión en la sección de comentarios a continuación.

Referencia:

[1] https://huggingface.co/spaces/vectara/leaderboard

punto_img

Información más reciente

punto_img

Habla con nosotros!

¡Hola! ¿Le puedo ayudar en algo?