Logotipo de Zephyrnet

Microsoft presenta el marco de optimización de solicitud automática para LLM

Fecha:

Microsoft AI Research ha introducido recientemente un nuevo marco llamado Optimización automática de avisos (APO) para mejorar significativamente el rendimiento de grandes modelos de lenguaje (LLM). Este marco está diseñado para ayudar a los usuarios a crear mejores avisos con una mínima intervención manual y optimizar pronta ingenieria para mejores resultados. En este artículo, nos sumergimos en los detalles de APO y su impacto potencial en las tareas de NLP. Primero, comencemos con su definición.

Microsoft AI Research presenta APO, un marco simple y de propósito general para la optimización automática de las indicaciones de LLM que reduce significativamente los esfuerzos de indicación manual.

¿Qué es APO?

APO es un marco simple y de propósito general que optimiza automáticamente las solicitudes para los LLM. Es un algoritmo de optimización rápida no paramétrico inspirado en el descenso de gradiente numérico. El algoritmo conecta dos enfoques automatizados existentes para ayudar a los humanos a escribir mejores indicaciones. Primero está el entrenamiento de modelos auxiliares o representaciones diferenciables del mensaje. El segundo es la aplicación de manipulaciones discretas a las indicaciones a través del aprendizaje por refuerzo (RL) o la retroalimentación basada en LLM.

APO es un marco simple y de propósito general que optimiza automáticamente las solicitudes para los LLM.

¿Cómo funciona APO?

El enfoque propuesto primero adopta mini-lotes de datos de entrenamiento para obtener los "gradientes" en lenguaje natural, que describen las fallas de un aviso dado. Luego, edita el aviso hacia la dirección semántica opuesta del degradado. Estos pasos sirven como el componente de expansión de una búsqueda de haz más amplia en el espacio de indicaciones, lo que convierte la tarea en un problema de selección de candidatos de haz, mejorando así la eficiencia algorítmica.

Resultados y Evaluación

Para evaluar la efectividad de APO, el equipo de investigación de Microsoft lo comparó con tres líneas base de aprendizaje rápido de última generación. Se compararon en varias tareas de PNL, incluida la detección de jailbreak, detección de discursos de odio, detección de noticias falsas y detección de sarcasmo. Los resultados mostraron que APO superó constantemente a otras líneas de base, logrando mejoras significativas sobre las líneas de base de Monte Carlo (MC) y aprendizaje por refuerzo (RL) sin ajuste de hiperparámetros o entrenamiento de modelos.

Los resultados mostraron que APO superó consistentemente a otras líneas de base sin ajuste de hiperparámetros.

Impacto de APO

Con APO, optimizar y mejorar la ingeniería de indicaciones será más accesible y eficiente a medida que las indicaciones se vuelvan cada vez más complejas y sofisticadas. APO tiene el potencial de aumentar la eficiencia de los modelos de lenguaje grande y disminuir el trabajo manual y el tiempo de desarrollo necesarios para un desarrollo rápido al automatizar el proceso de optimización rápida. Este es un avance significativo, ya que puede resultar en un mejor desempeño en una variedad de tareas de PNL.

Lea también TCS planea una solución de inteligencia artificial similar a GPT para la codificación, allanando el camino para los ingenieros rápidos

Nuestro dicho

La introducción de la optimización automática de avisos (APO) por parte de Microsoft AI Research tendrá un impacto considerable en la optimización de la ingeniería de avisos para los LLM. El marco es simple de usar, de propósito general y no paramétrico. Esto lo convierte en una herramienta eficaz para mejorar la calidad de las solicitudes sin ajuste adicional de hiperparámetros o entrenamiento de modelos. Con APO, la optimización de la ingeniería rápida será más accesible, eficiente y precisa, lo que conducirá a mejores resultados en varias tareas de NLP.

punto_img

Información más reciente

punto_img