Logotipo de Zephyrnet

Investigadores de Microsoft presentan CodeOcean y WaveCode

Fecha:

Los avances recientes en IA, específicamente en el ámbito de los modelos de lenguaje grande (LLM), han llevado a avances notables en los modelos de lenguaje de código. Los investigadores de Microsoft han Introducido dos herramientas innovadoras en este dominio: WaveCoder y CodeOcean, lo que marca un importante avance en el campo del ajuste de instrucciones para modelos de lenguaje de código.

WaveCoder: un LLM de código ajustado

WaveCoder es un modelo de lenguaje de código (Code LLM) optimizado diseñado específicamente para mejorar el ajuste de las instrucciones. El modelo demuestra un rendimiento superior en diversas tareas relacionadas con el código, superando constantemente a otros modelos de código abierto con el mismo nivel de ajuste. La eficacia de WaveCoder es especialmente notable en tareas como generación, reparación y resumen de código.

CodeOcean: un rico conjunto de datos para mejorar el ajuste de instrucciones

CodeOcean, la pieza central de esta investigación, es un conjunto de datos meticulosamente seleccionado que comprende 20,000 instancias de instrucción en cuatro tareas críticas relacionadas con el código: resumen de código, generación de código, traducción de código y reparación de código. Su objetivo principal es elevar el rendimiento de los LLM de Code mediante un ajuste de instrucción de precisión. CodeOcean se distingue por centrarse en la calidad y diversidad de los datos, lo que garantiza un rendimiento superior en diversas tareas relacionadas con el código.

Un enfoque novedoso para el ajuste de la instrucción

La innovación radica en el método de aprovechar datos de instrucción diversos y de alta calidad a partir de código fuente abierto para revolucionar el ajuste de instrucciones. Este enfoque aborda los desafíos asociados con la generación de datos de instrucción, como la presencia de datos duplicados y el control limitado sobre la calidad de los datos. Al categorizar los datos de instrucción en cuatro tareas universales relacionadas con el código y refinar los datos de instrucción, los investigadores han creado un método sólido para mejorar las capacidades de generalización de modelos ajustados.

La importancia de la calidad y diversidad de los datos

Esta investigación innovadora enfatiza la importancia de la calidad y diversidad de los datos en el ajuste de la instrucción. El novedoso marco Generador-Discriminador basado en LLM aprovecha el código fuente y ofrece un control explícito sobre la calidad de los datos durante el proceso de generación. Esta metodología destaca por generar datos de instrucción más auténticos, mejorando así la capacidad de generalización de modelos ajustados.

Rendimiento de referencia de WaveCoder

Los modelos WaveCoder han sido evaluados rigurosamente en varios dominios, reafirmando su eficacia en diversos escenarios. Eclipsan constantemente a sus homólogos en numerosos puntos de referencia, incluidos HumanEval, MBPP y HumanEvalPack. Una comparación con el conjunto de datos de CodeAlpaca resalta la superioridad de CodeOcean a la hora de refinar los datos de instrucción y elevar la perspicacia de los modelos base para seguir instrucciones.

Implicaciones para el mercado

Para el mercado, CodeOcean y WaveCoder de Microsoft representan una nueva era de modelos de lenguaje de código más capaces y adaptables. Estas innovaciones ofrecen soluciones mejoradas para una variedad de aplicaciones e industrias, mejorando la destreza de generalización de los LLM y ampliando su aplicabilidad en diversos contextos.

Directrices para el futuro

De cara al futuro, se anticipan nuevas mejoras en el rendimiento de una sola tarea y en la capacidad de generalización del modelo. La interacción entre diferentes tareas y conjuntos de datos más grandes serán áreas clave de enfoque para continuar avanzando en el campo del ajuste de instrucciones para modelos de lenguaje de código.

Conclusión

La introducción de WaveCoder y CodeOcean por parte de Microsoft representa un momento crucial en la evolución de los modelos de lenguaje de código. Al enfatizar la calidad de los datos y la diversidad en el ajuste de las instrucciones, estas herramientas allanan el camino para modelos más sofisticados, eficientes y adaptables que están mejor equipados para manejar un amplio espectro de tareas relacionadas con el código. Esta investigación no sólo mejora las capacidades de los modelos de lenguaje grandes, sino que también abre nuevas vías para su aplicación en diversas industrias, lo que marca un hito importante en el campo de la inteligencia artificial.

Fuente de la imagen: Shutterstock

punto_img

Información más reciente

punto_img