Logotipo de Zephyrnet

Esta semana en IA • 31 de julio de 2023: Los titanes de IA prometen innovación responsable • La invasión Beluga – KDnuggets

Fecha:

Dar en el blanco con IA
Imagen creada por el autor con BlueWillow
 

Bienvenido a la edición inaugural de "Esta semana en IA" en KDnuggets. Esta publicación semanal seleccionada tiene como objetivo mantenerlo al tanto de los desarrollos más convincentes en el mundo de la inteligencia artificial que avanza rápidamente. Desde titulares innovadores que dan forma a nuestra comprensión del papel de la IA en la sociedad hasta artículos que invitan a la reflexión, recursos de aprendizaje perspicaces e investigaciones destacadas que superan los límites de nuestro conocimiento, esta publicación proporciona una descripción general completa del panorama actual de la IA. Sin profundizar en los detalles todavía, espere explorar una gran cantidad de temas diversos que reflejan la naturaleza vasta y dinámica de la IA. Recuerde, esta es solo la primera de muchas actualizaciones semanales por venir, diseñadas para mantenerlo actualizado e informado en este campo en constante evolución. ¡Estén atentos y feliz lectura!

 
La sección "Titulares" analiza las principales noticias y desarrollos de la semana pasada en el campo de la inteligencia artificial. La información abarca desde políticas gubernamentales de IA hasta avances tecnológicos e innovaciones corporativas en IA.

???? AI Titans promete innovación responsable bajo la administración Biden-Harris

La Administración Biden-Harris ha obtenido compromisos voluntarios de siete empresas líderes en IA (Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI) para garantizar el desarrollo seguro, protegido y transparente de la tecnología de IA. Estos compromisos subrayan tres principios fundamentales para el futuro de la IA: seguridad, protección y confianza. Las empresas acordaron realizar pruebas de seguridad internas y externas de sus sistemas de IA antes del lanzamiento, compartir información sobre la gestión de riesgos de IA e invertir en ciberseguridad. También se comprometen a desarrollar mecanismos técnicos para garantizar que los usuarios sepan cuándo el contenido es generado por IA y para informar públicamente las capacidades, limitaciones y áreas de uso apropiado e inapropiado de sus sistemas de IA. Este movimiento es parte de un compromiso más amplio de la Administración Biden-Harris para garantizar que la IA se desarrolle de manera segura y responsable, y para proteger a los estadounidenses del daño y la discriminación.

 
???? Stability AI presenta Stable Beluga: los nuevos caballos de batalla de los modelos de lenguaje de acceso abierto

Stability AI y su laboratorio CarperAI han anunciado el lanzamiento de Stable Beluga 1 y Stable Beluga 2, dos potentes modelos de lenguaje grande (LLM) de acceso abierto. Estos modelos, que demuestran una capacidad de razonamiento excepcional en varios puntos de referencia, se basan en los modelos básicos LLaMA 65B y LLaMA 2 70B originales, respectivamente. Ambos modelos se ajustaron con un nuevo conjunto de datos generados sintéticamente utilizando Supervised Fine-Tune (SFT) en formato Alpaca estándar. El entrenamiento para los modelos Stable Beluga se inspiró en la metodología utilizada por Microsoft en su artículo: "Orca: Progressive Learning from Complex Explanation Traces of GPT-4". A pesar de entrenar en una décima parte del tamaño de muestra del papel Orca original, los modelos Stable Beluga demuestran un rendimiento excepcional en varios puntos de referencia. A partir del 27 de julio de 2023, Stable Beluga 2 es el modelo superior en la tabla de clasificación y Stable Beluga 1 es el cuarto.

 
???? El CEO de Spotify insinúa futuras capacidades publicitarias y de personalización impulsadas por IA

Durante la llamada de ganancias del segundo trimestre de Spotify, el CEO Daniel Ek insinuó la posible introducción de una funcionalidad adicional impulsada por IA en el servicio de transmisión. Ek sugirió que la IA podría usarse para crear experiencias más personalizadas, resumir podcasts y generar anuncios. Destacó el éxito de la función de DJ lanzada recientemente, que ofrece una selección de música curada junto con comentarios impulsados ​​​​por IA sobre las pistas y los artistas. Ek también mencionó el uso potencial de la IA generativa para resumir podcasts, lo que facilita que los usuarios descubran nuevos contenidos. Además, Ek discutió la posibilidad de anuncios de audio generados por IA, lo que podría reducir significativamente el costo para que los anunciantes desarrollen nuevos formatos de anuncios. Estos comentarios se producen cuando Spotify busca una patente para un sistema de "síntesis de texto a voz" impulsado por IA, que puede convertir texto en audio de voz similar al humano que incorpora emoción e intención.

 
La sección "Artículos" presenta una variedad de piezas que invitan a la reflexión sobre inteligencia artificial. Cada artículo profundiza en un tema específico y ofrece a los lectores información sobre varios aspectos de la IA, incluidas nuevas técnicas, enfoques revolucionarios y herramientas innovadoras.

📰 Intérprete de código ChatGPT: haga ciencia de datos en minutos

Este artículo de KDnuggets presenta el complemento Code Interpreter de ChatGPT, una herramienta que puede analizar datos, escribir código Python y crear modelos de aprendizaje automático. La autora, Natassha Selvaraj, demuestra cómo se puede usar el complemento para automatizar varios flujos de trabajo de ciencia de datos, incluido el resumen de datos, el análisis exploratorio de datos, el preprocesamiento de datos y la creación de modelos de aprendizaje automático. El intérprete de código también se puede utilizar para explicar, depurar y optimizar el código. Natassha enfatiza que, si bien la herramienta es poderosa y eficiente, debe usarse como referencia para las tareas de ciencia de datos, ya que carece de conocimientos específicos del dominio y no puede manejar grandes conjuntos de datos que residen en bases de datos SQL. Natassha sugiere que los científicos de datos de nivel de entrada y aquellos que aspiran a convertirse en uno deberían aprender a aprovechar herramientas como Code Interpreter para hacer que su trabajo sea más eficiente.

 
📰 Los libros de texto son todo lo que necesita: un enfoque revolucionario para el entrenamiento de IA

Este artículo de KDnuggets analiza un nuevo enfoque para el entrenamiento de IA propuesto por investigadores de Microsoft, que implica el uso de un libro de texto sintético en lugar de conjuntos de datos masivos. Los investigadores entrenaron un modelo llamado Phi-1 completamente en un libro de texto hecho a medida y descubrieron que funcionaba impresionantemente bien en las tareas de codificación de Python, a pesar de ser significativamente más pequeño que modelos como GPT-3. Esto sugiere que la calidad de los datos de entrenamiento puede ser tan importante como el tamaño del modelo. El rendimiento del modelo Phi-1 también mejoró cuando se ajustó con ejercicios y soluciones sintéticos, lo que indica que el ajuste fino específico puede mejorar las capacidades de un modelo más allá de las tareas para las que fue entrenado específicamente. Esto sugiere que este enfoque basado en libros de texto podría revolucionar el entrenamiento de IA al cambiar el enfoque de crear modelos más grandes a seleccionar mejores datos de entrenamiento.

 
📰 La última técnica de ingeniería de avisos transforma ingeniosamente avisos imperfectos en excelentes interacciones para usar IA generativa

El artículo analiza una nueva técnica en la ingeniería de indicaciones que fomenta el uso de indicaciones imperfectas. El autor argumenta que la búsqueda de indicaciones perfectas puede ser contraproducente y que a menudo es más práctico apuntar a indicaciones "suficientemente buenas". Las aplicaciones de IA generativa utilizan métodos probabilísticos y estadísticos para analizar indicaciones y generar respuestas. Por lo tanto, incluso si se usa el mismo mensaje varias veces, es probable que la IA produzca respuestas diferentes cada vez. El autor sugiere que, en lugar de esforzarse por obtener un aviso perfecto, los usuarios deberían utilizar avisos imperfectos y agregarlos para crear avisos efectivos. El artículo hace referencia a un estudio de investigación titulado "Pregúntame cualquier cosa: una estrategia simple para modelos de lenguaje de avisos" que propone un método para convertir avisos imperfectos en sólidos agregando las predicciones de varios avisos efectivos, aunque imperfectos.

 
La sección "Recursos de aprendizaje" enumera contenido educativo útil para aquellos deseosos de ampliar sus conocimientos en IA. Los recursos, que van desde guías completas hasta cursos especializados, se adaptan tanto a principiantes como a profesionales experimentados en el campo de la IA.

???? LLM University by Cohere: su puerta de entrada al mundo de los modelos de lenguaje grande

La Universidad LLM de Cohere es un recurso de aprendizaje integral para los desarrolladores interesados ​​en el procesamiento del lenguaje natural (NLP) y los modelos de lenguaje extenso (LLM). El plan de estudios está diseñado para proporcionar una base sólida en NLP y LLM, y luego aprovechar este conocimiento para desarrollar aplicaciones prácticas. El plan de estudios se divide en cuatro módulos principales: "¿Qué son los modelos de lenguaje grande?", "Representación de texto con Cohere Endpoints", "Generación de texto con Cohere Endpoints" e "Implementación". Tanto si es un nuevo ingeniero de aprendizaje automático como si es un desarrollador experimentado que busca ampliar sus habilidades, LLM University de Cohere ofrece una guía completa sobre el mundo de la PNL y los LLM.

 
???? Gratis de Google: ruta de aprendizaje de IA generativa

Google Cloud ha lanzado Generative AI Learning Path, una colección de cursos gratuitos que cubren todo, desde los conceptos básicos de Generative AI hasta herramientas más avanzadas como Generative AI Studio. La ruta de aprendizaje incluye siete cursos: "Introducción a la IA generativa", "Introducción a los modelos de lenguaje grande", "Introducción a la generación de imágenes", "Mecanismo de atención", "Modelos de transformadores y modelo BERT", "Crear modelos de subtítulos de imágenes" y “Introducción al Estudio Generativo de IA”. Los cursos cubren una variedad de temas, incluidos los modelos de lenguaje grande, la generación de imágenes, el mecanismo de atención, los modelos de transformadores, el modelo BERT y los modelos de subtítulos de imágenes.

 
La sección "Research Spotlight" destaca investigaciones significativas en el ámbito de la IA. La sección incluye estudios innovadores, explorando nuevas teorías y discutiendo posibles implicaciones y direcciones futuras en el campo de la IA.

🔍 El papel de los modelos de lenguaje grande en la evolución de la educación en ciencia de datos

El artículo de investigación titulado "El papel de los modelos de lenguaje extenso en la evolución de la educación en ciencia de datos" analiza el impacto transformador de los modelos de lenguaje extenso (LLM) en los roles y responsabilidades de los científicos de datos. Los autores argumentan que el auge de los LLM está cambiando el enfoque de los científicos de datos de la codificación práctica a la gestión y evaluación de los análisis realizados por sistemas automatizados de IA. Este cambio requiere una evolución significativa en la educación en ciencia de datos, con un mayor énfasis en cultivar diversos conjuntos de habilidades entre los estudiantes. Estos incluyen creatividad informada por LLM, pensamiento crítico, programación guiada por IA y conocimiento interdisciplinario.

Los autores también proponen que los LLM pueden desempeñar un papel importante en el aula como herramientas interactivas de enseñanza y aprendizaje. Pueden contribuir a la educación personalizada y enriquecer las experiencias de aprendizaje. Sin embargo, la integración de los LLM en la educación requiere una consideración cuidadosa para equilibrar los beneficios de los LLM y fomentar la innovación y la experiencia humana complementaria. El documento sugiere que el futuro de la educación en ciencia de datos probablemente implicará una relación simbiótica entre los estudiantes humanos y los modelos de IA, donde ambas entidades aprenden y mejoran las capacidades de los demás.
 
 

punto_img

Información más reciente

punto_img