Este es un artículo invitado coescrito con Vicente Cruz Mínguez, Head of Data and Advanced Analytics de Cepsa Química, y Marcos Fernández Díaz, Senior Data Scientist de Keepler.
La inteligencia artificial (IA) generativa está emergiendo rápidamente como una fuerza transformadora, preparada para alterar y remodelar empresas de todos los tamaños y en todos los sectores. La IA generativa permite a las organizaciones combinar sus datos con el poder de los algoritmos de aprendizaje automático (ML) para generar contenido similar al humano, optimizar procesos y desbloquear la innovación. Como ocurre con todas las demás industrias, el sector energético se ve afectado por el cambio de paradigma de la IA generativa, lo que abre oportunidades de innovación y eficiencia. Una de las áreas donde la IA generativa está mostrando rápidamente su valor es la racionalización de los procesos operativos, la reducción de costos y la mejora de la productividad general.
En este post explicamos cómo Cepsa Química y su socio Keepler han implementado un asistente de IA generativa para aumentar la eficiencia del equipo de gestión de producto a la hora de responder consultas de cumplimiento relacionadas con los productos químicos que comercializan. Para acelerar el desarrollo, utilizaron Amazon Bedrock, un servicio totalmente administrado que ofrece una selección de modelos básicos (FM) de alto rendimiento de empresas líderes en inteligencia artificial como AI21 Labs, Anthropic, Cohere, Meta, Stability AI y Amazon a través de una única API. junto con un amplio conjunto de capacidades para crear aplicaciones de IA generativa con seguridad, privacidad y protección.
Cepsa Química, líder mundial en la fabricación de alquilbenceno lineal (LAB) y segundo en la producción de fenol, es una empresa alineada con La estrategia de Cepsa Movimiento Positivo para 2030, contribuyendo a la descarbonización y sostenibilidad de sus procesos mediante el uso de materias primas renovables, el desarrollo de productos con menos carbono y el uso de residuos como materia prima.
En el departamento de Digital, IT, Transformation & Operational Excellence (DITEX) de Cepsa trabajamos en democratizar el uso de la IA dentro de nuestras áreas de negocio para que se convierta en una palanca más de generación de valor. En este contexto, identificamos la gestión de productos como una de las áreas con mayor potencial de creación de valor a través de la IA generativa. Nos asociamos con Guardián, una empresa de consultoría de servicios de datos centrados en la nube especializada en el diseño, construcción, implementación y operación de soluciones personalizadas de análisis avanzado de la nube pública para grandes organizaciones, en la creación de la primera solución de IA generativa para uno de nuestros equipos corporativos.
El equipo de Seguridad, Sostenibilidad y Transición Energética
El área de Seguridad, Sostenibilidad y Transición Energética de Cepsa Química es responsable de todos los aspectos de salud humana, seguridad y medio ambiente relacionados con los productos fabricados por la compañía y las materias primas asociadas, entre otros. En este campo, sus áreas de actuación son la seguridad del producto, el cumplimiento normativo, la sostenibilidad y la atención al cliente en torno a la seguridad y el cumplimiento.
Una de las responsabilidades del equipo de Seguridad, Sostenibilidad y Transición Energética es la tutela del producto, que se ocupa del cumplimiento normativo de los productos comercializados. El departamento de Gestión de Productos es responsable de gestionar una gran colección de documentos de cumplimiento normativo. Su deber implica determinar qué regulaciones se aplican a cada producto específico en la cartera de la empresa, compilar una lista de todas las regulaciones aplicables para un producto determinado y apoyar a otros equipos internos que puedan tener preguntas relacionadas con estos productos y regulaciones. Preguntas de ejemplo podrían ser "¿Cuáles son las restricciones para las sustancias CMR?", "¿Cuánto tiempo debo conservar los documentos relacionados con una venta de tolueno?" o "¿Cuál es el índice de caracterización del alcance y cómo lo calculo?" El contenido normativo necesario para dar respuesta a estas cuestiones varía con el tiempo, introduciendo nuevas cláusulas y derogando otras. Este trabajo solía consumir un porcentaje importante del tiempo del equipo, por lo que identificaron una oportunidad de generar valor al reducir el tiempo de búsqueda de consultas regulatorias.
El departamento de DITEX colaboró con el equipo de Seguridad, Sostenibilidad y Transición Energética para realizar un análisis preliminar de sus puntos débiles y consideró factible utilizar técnicas de IA generativa para acelerar la resolución de las consultas de cumplimiento. El análisis se realizó para consultas basadas tanto en datos no estructurados (documentos regulatorios y hojas de especificaciones de productos) como estructurados (catálogo de productos).
Un enfoque para la gestión de productos con IA generativa
Los modelos de lenguajes grandes (LLM) se entrenan con grandes cantidades de información extraída de Internet, lo que captura un conocimiento considerable de múltiples dominios. Sin embargo, su conocimiento es estático y está ligado a los datos utilizados durante la fase previa al entrenamiento.
Para superar esta limitación y proporcionar dinamismo y adaptabilidad a los cambios en la base de conocimientos, decidimos seguir un enfoque de generación aumentada de recuperación (RAG), en el que a los LLM se les presenta información relevante extraída de fuentes de datos externas para proporcionar datos actualizados sin la necesidad de volver a entrenar los modelos. Este enfoque es ideal para un escenario en el que la información regulatoria se actualiza a un ritmo rápido, con frecuentes derogaciones, modificaciones y nuevas regulaciones que se publican.
Además, el enfoque basado en RAG permite la creación rápida de prototipos de casos de uso de búsqueda de documentos, lo que nos permite diseñar una solución basada en información regulatoria sobre sustancias químicas en unas pocas semanas.
La solución que construimos se basa en cuatro bloques funcionales principales:
- Procesamiento de entrada – Los documentos PDF normativos de entrada se preprocesan para extraer la información relevante. Cada documento se divide en fragmentos para facilitar los procesos de indexación y recuperación basados en el significado semántico.
- Generación de incrustaciones – Se utiliza un modelo de incrustaciones para codificar la información semántica de cada fragmento en un vector de incrustaciones, que se almacena en una base de datos de vectores, lo que permite la búsqueda de similitud de las consultas de los usuarios.
- Servicio de cadena LLM – Este servicio organiza la solución invocando los modelos LLM con un mensaje adecuado y creando la respuesta que se devuelve al usuario.
- Interfaz de usuario – Un chatbot conversacional permite la interacción con los usuarios.
Dividimos la solución en dos módulos independientes: uno para procesar por lotes los documentos de entrada y otro para responder las consultas de los usuarios mediante la ejecución de inferencia.
Módulo de ingesta por lotes
El módulo de ingesta por lotes realiza el procesamiento inicial de los documentos de cumplimiento sin procesar y el catálogo de productos y genera las incorporaciones que se utilizarán posteriormente para responder las consultas de los usuarios. El siguiente diagrama ilustra esta arquitectura.
El módulo de ingesta por lotes realiza las siguientes tareas:
- Pegamento AWS, un servicio de integración de datos sin servidor, se utiliza para ejecutar trabajos periódicos de extracción, transformación y carga (ETL) que leen documentos sin procesar de entrada y el catálogo de productos de Servicio de almacenamiento simple de Amazon (Amazon S3), un servicio de almacenamiento de objetos que ofrece escalabilidad, disponibilidad de datos, seguridad y rendimiento líderes en la industria.
- Las llamadas de trabajo de AWS Glue Amazon Textil, un servicio de aprendizaje automático que extrae automáticamente texto, escritura a mano, elementos de diseño y datos de documentos escaneados para procesar los documentos PDF de entrada. Una vez extraídos los datos, el trabajo realiza la fragmentación de documentos, la limpieza de datos y el posprocesamiento.
- El trabajo de AWS Glue utiliza Amazon Bedrock para generar incrustaciones de vectores para cada fragmento de documento utilizando el Incrustaciones de texto de Amazon Titan
- Edición compatible con Amazon Aurora PostgreSQL, un motor de base de datos relacional totalmente administrado, compatible con PostgreSQL y ACID para almacenar las incrustaciones extraídas, se utiliza con la extensión pgvector habilitada para búsquedas de similitudes eficientes.
módulo de inferencia
El módulo de inferencia transforma las consultas de los usuarios en incrustaciones, recupera fragmentos de documentos relevantes de la base de conocimientos mediante búsqueda de similitudes y solicita un LLM con la consulta y los fragmentos recuperados para generar una respuesta contextual. El siguiente diagrama ilustra esta arquitectura.
El módulo de inferencia implementa los siguientes pasos:
- Los usuarios interactúan a través de un portal web, que consiste en un sitio web estático almacenado en Amazon S3, servido a través de Amazon CloudFront, una red de entrega de contenidos (CDN) y protegida con Cognito de AWS, una plataforma de gestión de acceso e identidad de clientes.
- Las consultas se envían al backend utilizando una API REST definida en Puerta de enlace API de Amazon, un servicio totalmente administrado que facilita a los desarrolladores la creación, publicación, mantenimiento, monitoreo y protección de API a cualquier escala, y se implementa a través de un Integración privada de API Gateway. El backend se implementa mediante un servicio de cadena LLM que se ejecuta en AWS Fargate, un motor informático de pago por uso sin servidor que le permite concentrarse en crear aplicaciones sin administrar servidores. Este servicio orquesta la interacción con los diferentes LLM utilizando el LangChain
- El servicio de cadena LLM invoca Amazon Titan Text Embeddings en Amazon Bedrock para generar las incrustaciones para la consulta del usuario.
- Según las incrustaciones de consultas, los documentos relevantes se recuperan de la base de datos de incrustaciones mediante búsqueda por similitud.
- El servicio redacta un mensaje que incluye la consulta del usuario y los documentos extraídos de la base de conocimientos. El mensaje se envía a Claude antrópico 2.0 en Amazon Bedrocky la respuesta del modelo se envía de vuelta al usuario.
Nota sobre la implementación del RAG
El chatbot de gestión de productos se creó antes Bases de conocimiento para Amazon Bedrock estaba generalmente disponible. Bases de conocimiento para Amazon Bedrock es una capacidad totalmente gestionada que le ayuda a implementar todo el flujo de trabajo de RAG, desde la ingesta hasta la recuperación y el aumento rápido, sin tener que crear integraciones personalizadas con fuentes de datos y administrar flujos de datos. Knowledge Bases gestiona la configuración inicial del almacén de vectores, maneja la incrustación y las consultas, y proporciona la atribución de origen y la memoria a corto plazo necesarias para las aplicaciones RAG de producción.
Con Knowledge Bases for Amazon Bedrock, la implementación de los pasos 3 y 4 de los módulos de inferencia y ingesta por lotes se puede simplificar significativamente.
Desafíos y soluciones.
En esta sección, analizamos los desafíos que encontramos durante el desarrollo del sistema y las decisiones que tomamos para superarlos.
Estrategia de fragmentación y preprocesamiento de datos
Descubrimos que los documentos de entrada contenían una variedad de complejidades estructurales, lo que planteaba un desafío en la etapa de procesamiento. Por ejemplo, algunas tablas contienen grandes cantidades de información con un contexto mínimo, excepto el encabezado, que se muestra en la parte superior de la tabla. Esto puede hacer que sea complejo obtener las respuestas correctas a las consultas de los usuarios, porque el proceso de recuperación puede carecer de contexto.
Además, algunos anexos de documentos están vinculados a otras secciones del documento o incluso a otros documentos, lo que lleva a una recuperación de datos incompleta y a la generación de respuestas inexactas.
Para abordar estos desafíos, implementamos tres estrategias de mitigación:
- fragmentación de datos – Decidimos utilizar fragmentos de mayor tamaño con superposiciones significativas para proporcionar el máximo contexto para cada fragmento durante la ingesta. Sin embargo, establecemos un límite superior para evitar perder el significado semántico del fragmento.
- Selección de modelo – Seleccionamos un modelo con una ventana de contexto grande para generar respuestas que tengan en cuenta un contexto más amplio. Anthropic Claude 2.0 en Amazon Bedrock, con una ventana de contexto de 100 K, proporcionó los resultados más precisos. (El sistema se construyó antes de que Anthropic Claude 2.1 o la familia de modelos Anthropic Claude 3 estuvieran disponibles en Amazon Bedrock).
- Variantes de consulta – Antes de recuperar documentos de la base de datos, se generan múltiples variantes de la consulta del usuario mediante un LLM. Los documentos de todas las variantes se recuperan y eliminan duplicados antes de proporcionarlos como contexto para la consulta LLM.
Estas tres estrategias mejoraron significativamente la precisión de recuperación y respuesta del sistema RAG.
Evaluación de resultados y perfeccionamiento de procesos.
Evaluar las respuestas de los modelos LLM es otro desafío que no se encuentra en los casos de uso de IA tradicionales. Debido a la naturaleza de texto libre del resultado, es difícil evaluar y comparar diferentes respuestas en términos de una métrica o KPI, lo que lleva a una revisión manual en la mayoría de los casos. Sin embargo, un proceso manual requiere mucho tiempo y no es escalable.
Para minimizar los inconvenientes, creamos un conjunto de datos de evaluación comparativa con la ayuda de usuarios experimentados, que contiene la siguiente información:
- Preguntas representativas que requieren datos combinados de diferentes documentos.
- Respuestas reales para cada pregunta
- Referencias a los documentos fuente, páginas y números de línea donde se encuentran las respuestas correctas.
Luego implementamos un sistema de evaluación automática con Anthropic Claude 2.0 en Amazon Bedrock, con diferentes estrategias de estimulación para evaluar la recuperación de documentos y la formación de respuestas. Este enfoque permitió el ajuste de diferentes parámetros de forma rápida y automatizada:
- preprocesamiento – Probé diferentes valores para el tamaño del fragmento y el tamaño de superposición
- Recuperación – Probado varias técnicas de recuperación de complejidad incremental.
- Consulta – Realicé las pruebas con diferentes LLM alojados en Amazon Bedrock:
- Amazon Titan Texto Premier
- Comando Cohere v1.4
- Antrópico Claude instantáneo
- Claude antrópico 2.0
La solución final consta de tres cadenas: una para traducir la consulta del usuario al inglés, otra para generar variaciones de la pregunta de entrada y otra para redactar la respuesta final.
Mejoras conseguidas y próximos pasos
Creamos una interfaz conversacional para el equipo de Seguridad, Sostenibilidad y Transición Energética que ayuda al equipo de administración de productos a ser más eficiente y obtener respuestas a consultas de cumplimiento más rápido. Además, las respuestas contienen referencias a los documentos de entrada utilizados por el LLM para generar la respuesta, por lo que el equipo puede verificar la respuesta y encontrar contexto adicional si es necesario. La siguiente captura de pantalla muestra un ejemplo de la interfaz conversacional.
Algunas de las mejoras cualitativas y cuantitativas identificadas por el equipo de administración del producto mediante el uso de la solución son:
- Horarios de consulta – La siguiente tabla resume el tiempo de búsqueda ahorrado por la complejidad de la consulta y la antigüedad del usuario (teniendo en cuenta que todos los tiempos de búsqueda se han reducido a menos de 1 minuto).
Complejidad: |
Tiempo ahorrado (minutos) | |
Usuario joven | Usuario mayor | |
Baja | 3.3 | 2 |
Mediana | 9.25 | 4 |
Alta | 28 | 10 |
- Calidad de respuesta – El sistema implementado ofrece contexto adicional y referencias de documentos que son utilizados por los usuarios para mejorar la calidad de la respuesta.
- Eficiencia operacional – El sistema implementado ha acelerado el proceso de consulta regulatoria, mejorando directamente la eficiencia operativa del departamento.
Desde el departamento de DITEX actualmente estamos trabajando con otras áreas de negocio de Cepsa Química para identificar casos de uso similares que ayuden a crear una herramienta corporativa que reutilice componentes de esta primera iniciativa y generalice el uso de la IA generativa en todas las funciones del negocio.
Conclusión
En esta publicación, compartimos cómo Cepsa Química y su socio Keepler han implementado un asistente de IA generativa que utiliza técnicas de Amazon Bedrock y RAG para procesar, almacenar y consultar el corpus de conocimiento relacionado con la administración de productos. Como resultado, los usuarios ahorran hasta un 25 por ciento de su tiempo cuando utilizan el asistente para resolver consultas sobre cumplimiento.
Si desea que su negocio comience con la IA generativa, visite IA generativa en AWS y conéctese con un especialista, o cree rápidamente una aplicación de IA generativa en fiestarock.
Sobre los autores
Vicente Cruz Mínguez es el Responsable de Datos y Analítica Avanzada de Cepsa Química. Tiene más de 8 años de experiencia en proyectos de big data y aprendizaje automático en las industrias financiera, minorista, energética y química. Actualmente lidera el equipo de Data, Advanced Analytics & Cloud Development en el departamento de Digital, IT, Transformation & Operational Excellence de Cepsa Química, con foco en alimentar el data lake corporativo y democratizar los datos para análisis, proyectos de aprendizaje automático y analítica de negocio. . Desde 2023, también trabaja para ampliar el uso de la IA generativa en todos los departamentos.
Marcos Fernández Díaz es científico de datos senior en Keepler, con 10 años de experiencia desarrollando soluciones integrales de aprendizaje automático para diferentes clientes y dominios, incluido el mantenimiento predictivo, pronóstico de series temporales, clasificación de imágenes, detección de objetos, optimización de procesos industriales y aprendizaje automático federado. . Sus principales intereses incluyen el procesamiento del lenguaje natural y la IA generativa. Fuera del trabajo, es un entusiasta de los viajes.
Guillermo Menendez Corral es Gerente Sénior de Arquitectura de Soluciones en AWS para Energía y Servicios Públicos. Tiene más de 18 años de experiencia en el diseño y creación de productos de software y actualmente ayuda a los clientes de AWS en la industria energética a aprovechar el poder de la nube a través de la innovación y la modernización.
- Distribución de relaciones públicas y contenido potenciado por SEO. Consiga amplificado hoy.
- PlatoData.Network Vertical Generativo Ai. Empodérate. Accede Aquí.
- PlatoAiStream. Inteligencia Web3. Conocimiento amplificado. Accede Aquí.
- PlatoESG. Carbón, tecnología limpia, Energía, Ambiente, Solar, Gestión de residuos. Accede Aquí.
- PlatoSalud. Inteligencia en Biotecnología y Ensayos Clínicos. Accede Aquí.
- Fuente: https://aws.amazon.com/blogs/machine-learning/cepsa-quimica-improves-the-efficiency-and-accuracy-of-product-stewardship-using-amazon-bedrock/