AutoWise Companion de HCLTech con tecnología AWS: una experiencia perfecta para que los compradores de automóviles tomen decisiones informadas con un diseño basado en datos

Como
Gustó

Fecha:

Nodo: 4220270

Esta publicación presenta AutoWise Companion de HCLTech, una solución de inteligencia artificial generativa y transformadora diseñada para mejorar la experiencia de compra de vehículos de los clientes. Al adaptar las recomendaciones en función de las preferencias de las personas, la solución guía a los clientes hacia el mejor modelo de vehículo para ellos. Al mismo tiempo, empodera a los fabricantes de vehículos (fabricantes de equipos originales [OEM]) al utilizar comentarios reales de los clientes para impulsar decisiones estratégicas, lo que aumenta las ventas y las ganancias de la empresa. IA generativa servicios en AWS y 'Grandes modelos lingüísticos' Las capacidades multimodales de los LLM hacen que AutoWise Companion de HCLTech proporcione una experiencia fluida e impactante.

En esta publicación, analizamos los desafíos actuales de la industria y guiamos a los lectores a través del diseño de la arquitectura y el flujo funcional de la solución AutoWise Companion utilizando servicios de AWS integrados y herramientas de código abierto. Además, analizamos el diseño desde las perspectivas de seguridad e inteligencia artificial responsable, demostrando cómo se puede aplicar esta solución a una gama más amplia de escenarios de la industria.

Corporativa

La compra de un vehículo es una decisión crucial que puede generar estrés e incertidumbre en los clientes. A continuación, se enumeran algunos de los desafíos reales a los que se enfrentan los clientes y los fabricantes:

  • Elegir la marca y el modelo adecuados – Incluso después de haber reducido las opciones a una marca, los clientes deben explorar una multitud de modelos y variantes de vehículos. Cada modelo tiene diferentes características, niveles de precio y métricas de rendimiento, lo que dificulta tomar una decisión segura que se ajuste a sus necesidades y a su presupuesto.
  • Analizar los comentarios de los clientes – Los fabricantes de equipos originales se enfrentan a la abrumadora tarea de examinar minuciosamente los extensos informes de las herramientas de generación de informes de calidad (QRT). Estos informes contienen grandes cantidades de datos, cuyo análisis puede resultar abrumador y requerir mucho tiempo.
  • Alinearse con los sentimientos del cliente – Los fabricantes de equipos originales deben alinear sus hallazgos a partir de los informes QRT con los sentimientos reales de los clientes. Comprender la satisfacción del cliente y las áreas que necesitan mejoras a partir de datos sin procesar es complejo y, a menudo, requiere herramientas analíticas avanzadas.

La solución AutoWise Companion de HCLTech aborda estos puntos críticos, beneficiando tanto a los clientes como a los fabricantes al simplificar el proceso de toma de decisiones para los clientes y mejorar el análisis de datos y la alineación de los sentimientos de los clientes para los fabricantes.

La solución extrae información valiosa de diversas fuentes de datos, incluidas transacciones de OEM, especificaciones de vehículos, reseñas en redes sociales e informes QRT de OEM. Al emplear un enfoque multimodal, la solución conecta elementos de datos relevantes en varias bases de datos. Según la consulta y el contexto del cliente, el sistema genera dinámicamente consultas de texto a SQL y resume los resultados de la base de conocimiento utilizando búsqueda semánticay crea folletos de vehículos personalizados según las preferencias del cliente. Este proceso sin complicaciones se ve facilitado por Generación de aumento de recuperación (RAG) y un texto a SQL marco de referencia.

Resumen de la solución

La solución general se divide en módulos funcionales tanto para clientes como para OEM.

Asistencia al cliente

Cada cliente tiene preferencias únicas, incluso cuando se trata de la misma marca y modelo de vehículo. La solución está diseñada para brindarles a los clientes una explicación detallada y personalizada de sus características preferidas, lo que les permite tomar decisiones informadas. La solución presenta las siguientes capacidades:

  • Consultas en lenguaje natural – Los clientes pueden hacer preguntas en un lenguaje sencillo sobre las características del vehículo, como las calificaciones generales, los precios y más. El sistema está equipado para comprender y responder a estas consultas de manera eficaz.
  • Interacción personalizada – La solución permite a los clientes seleccionar funciones específicas de una lista disponible, lo que permite una exploración más profunda de sus opciones preferidas. Esto ayuda a los clientes a comprender en profundidad las funciones que mejor se adaptan a sus necesidades.
  • Generación de folletos personalizados – La solución tiene en cuenta las preferencias del cliente y genera un folleto explicativo de las características personalizado (con imágenes de características específicas). Este documento personalizado ayuda al cliente a comprender mejor el vehículo y respalda su proceso de toma de decisiones.

Asistencia OEM

Los fabricantes de equipos originales (OEM) de la industria automotriz deben abordar de manera proactiva las quejas y los comentarios de los clientes sobre las distintas piezas de los automóviles. Esta solución integral permite a los gerentes de los OEM analizar y resumir las quejas de los clientes y los problemas de calidad notificados en diferentes categorías, lo que les permite formular estrategias basadas en datos de manera eficiente. Esto mejora la toma de decisiones y la competitividad en la dinámica industria automotriz. La solución permite lo siguiente:

  • Resúmenes de información – El sistema permite a los fabricantes de equipos originales (OEM) comprender mejor el resumen detallado presentado al integrar y agregar datos de varias fuentes, como informes QRT, datos de ventas de transacciones de vehículos y reseñas en redes sociales.
  • Vista detallada – Los OEM pueden acceder sin problemas a detalles específicos sobre problemas, informes, quejas o puntos de datos en lenguaje natural, y el sistema proporciona la información relevante de los datos de revisiones, datos de transacciones o informes QRT no estructurados referidos.

Para comprender mejor la solución, utilizamos los siete pasos que se muestran en la siguiente figura para explicar el flujo general de la función.

Mapa de flujo que explica el flujo general de funciones

El flujo general de funciones consta de los siguientes pasos:

  1. El usuario (cliente o gerente OEM) interactúa con el sistema a través de una interfaz de lenguaje natural para realizar diversas preguntas.
  2. El intérprete de lenguaje natural del sistema, impulsado por un motor de inteligencia artificial generativa, analiza el contexto, la intención y la personalidad relevante de la consulta para identificar las fuentes de datos adecuadas.
  3. A partir de las fuentes de datos identificadas, el motor de inteligencia artificial genera el plan de ejecución de consultas de múltiples fuentes correspondiente.
  4. El agente de consulta analiza el plan de ejecución y envía consultas al ejecutor de consultas correspondiente.
  5. La información solicitada se obtiene de forma inteligente de múltiples fuentes, como metadatos de productos de la empresa, transacciones de ventas, informes OEM y más, para generar respuestas significativas.
  6. El sistema combina a la perfección la información recopilada de diversas fuentes, aplicando la comprensión contextual y el conocimiento específico del dominio para generar una respuesta bien elaborada, completa y relevante para el usuario.
  7. El sistema genera la respuesta a la consulta original y permite al usuario continuar la interacción, ya sea haciendo preguntas de seguimiento dentro del mismo contexto o explorando nuevas áreas de interés, todo ello mientras se beneficia de la capacidad del sistema para mantener el conocimiento del contexto y proporcionar respuestas consistentemente relevantes e informativas.

Arquitectura técnica

La solución general se implementa utilizando servicios de AWS y LangChainSe utilizan varias funciones LangChain, como CharacterTextSplitter y vectores de incrustación, para el manejo de texto y la invocación de modelos de incrustación. En la capa de aplicación, la GUI para la solución se crea utilizando iluminado en lenguaje Python. El contenedor de la aplicación se implementa utilizando una arquitectura basada en microservicios de AWS de costo óptimo utilizando Servicio de contenedor elástico de Amazon (Amazon ECS) racimos y AWS Fargate.

La solución contiene las siguientes capas de procesamiento:

  • Canal de datos – Las distintas fuentes de datos, como datos transaccionales de ventas, informes QRT no estructurados, reseñas en redes sociales en formato JSON y metadatos de vehículos, se procesan, transforman y almacenan en las respectivas bases de datos.
  • Incorporación de vectores y catalogación de datos – Para respaldar la coincidencia de similitudes en consultas de lenguaje natural, los datos respectivos se vectorizan y almacenan como incrustaciones vectoriales. Además, para habilitar la función de lenguaje natural a SQL (texto a SQL), se genera el catálogo de datos correspondiente para los datos transaccionales.
  • LLM (formación de solicitudes y respuestas) – El sistema invoca LLM en varias etapas para comprender la solicitud, formular el contexto y generar la respuesta en función de la consulta y el contexto.
  • Aplicación frontal – Los clientes o los OEM interactúan con la solución mediante una aplicación asistente diseñada para permitir la interacción en lenguaje natural con el sistema.

La solución utiliza los siguientes servicios de análisis y almacenes de datos de AWS:

La siguiente figura muestra el flujo técnico de la solución.

Detalles del diseño arquitectónico en AWS

El flujo de trabajo consta de los siguientes pasos:

  1. La consulta del usuario, expresada en lenguaje natural, es procesada por un sistema orquestado. AWS Lambda
  2. La función Lambda intenta encontrar la coincidencia de consulta en la caché LLM. Si se encuentra una coincidencia, la respuesta se devuelve desde la caché LLM. Si no se encuentra ninguna coincidencia, la función invoca los LLM respectivos a través de lecho rocoso del amazonasEsta solución utiliza LLM (Anthropic's claudio 2 y Claude 3 Haiku) en Amazon Bedrock para la generación de respuestas. Amazon Titan Embeddings G1 – Texto LLM se utiliza para convertir los documentos de conocimiento y las consultas de los usuarios en incrustaciones vectoriales.
  3. En función del contexto de la consulta y del catálogo disponible, el LLM identifica las fuentes de datos relevantes:
    1. Los datos de ventas transaccionales, reseñas en redes sociales, metadatos de vehículos y más se transforman y utilizan para interacciones con clientes y OEM.
    2. Los datos de este paso están restringidos y solo pueden acceder a ellos los responsables de OEM para ayudar a diagnosticar los problemas relacionados con la calidad y proporcionar información sobre los informes QRT. Esta solución utiliza Amazon Textil como herramienta de extracción de datos para extraer texto de archivos PDF (como informes de calidad).
  4. El LLM genera consultas (de texto a SQL) para obtener datos de los respectivos canales de datos de acuerdo con las fuentes identificadas.
  5. Las respuestas de cada canal de datos se reúnen para generar el contexto general.
  6. Además, para generar un folleto personalizado, se obtienen imágenes relevantes (descritas como incrustaciones basadas en texto) según el contexto de la consulta. Amazon OpenSearch sin servidor Se utiliza como una base de datos vectorial para almacenar las incrustaciones de fragmentos de texto extraídos de archivos PDF de informes de calidad y descripciones de imágenes.
  7. El contexto general se pasa luego a un generador de respuestas LLM para generar la respuesta final al usuario. La memoria caché también se actualiza.

Consideraciones de seguridad e inteligencia artificial generativa responsable

Los clientes que implementan proyectos de IA generativa con LLM priorizan cada vez más la seguridad y las prácticas de IA responsables. Este enfoque surge de la necesidad de proteger datos confidenciales, mantener la integridad del modelo y hacer cumplir el uso ético de las tecnologías de IA. La solución AutoWise Companion utiliza los servicios de AWS para permitir que los clientes se concentren en la innovación y, al mismo tiempo, mantengan los más altos estándares de protección de datos y uso ético de la IA.

Barandillas Bedrock de Amazon

Barandillas Bedrock de Amazon proporciona protecciones configurables que se pueden aplicar a la entrada del usuario y a la salida del modelo base como controles de seguridad y privacidad. Al incorporar barandillas, la solución aleja de forma proactiva a los usuarios de posibles riesgos o errores, lo que promueve mejores resultados y el cumplimiento de los estándares establecidos. En la industria automotriz, los proveedores OEM suelen aplicar filtros de seguridad para las especificaciones del vehículo. Por ejemplo, quieren validar la entrada para asegurarse de que las consultas se refieran a modelos legítimos existentes. Amazon Bedrock Guardrails proporciona temas negados y comprobaciones de puesta a tierra contextual para garantizar que las consultas sobre modelos de automóviles inexistentes se identifiquen y rechacen con una respuesta personalizada.

Consideraciones de Seguridad

El sistema emplea un marco RAG que se basa en los datos de los clientes, por lo que la seguridad de los datos es la máxima prioridad. Por diseño, Amazon Bedrock proporciona una capa de seguridad de datos al garantizar que los datos de los clientes permanezcan cifrados y protegidos y no se utilicen para entrenar el LLM subyacente ni se compartan con los proveedores del modelo. Amazon Bedrock está dentro del alcance de los estándares de cumplimiento comunes, incluidos ISO, SOC, CSA STAR Nivel 2, es elegible para HIPAA y los clientes pueden usar Amazon Bedrock de conformidad con el RGPD.

Para el almacenamiento de documentos sin procesar en Amazon S3, el almacenamiento y la recuperación de datos transaccionales, estas fuentes de datos se cifran y se implementan los respectivos mecanismos de control de acceso para mantener el acceso restringido a los datos.

Aprendizajes clave

La solución ofreció los siguientes aprendizajes clave:

  • Optimización de costos de LLM – En las etapas iniciales de la solución, en función de la consulta del usuario, se requerían múltiples llamadas LLM independientes, lo que generaba un aumento de costos y tiempo de ejecución. Catálogo de datos de AWS GlueHemos mejorado la solución para utilizar una única llamada LLM para encontrar la mejor fuente de información relevante.
  • Almacenamiento en caché de LLM – Observamos que un porcentaje significativo de las consultas recibidas eran repetitivas. Para optimizar el rendimiento y los costos, implementamos un mecanismo de almacenamiento en caché que almacena los datos de solicitud y respuesta de las invocaciones anteriores del modelo LLM. Esta búsqueda en caché nos permite recuperar respuestas de los datos almacenados en caché, lo que reduce la cantidad de llamadas realizadas al modelo LLM subyacente. Este enfoque de almacenamiento en caché ayudó a minimizar los costos y mejorar los tiempos de respuesta.
  • Imagen a texto – Generar folletos personalizados según las preferencias de los clientes era un desafío. Sin embargo, los últimos LLM multimodales con capacidad de visión, como los modelos Claude 3 de Anthropic (Haiku y Sonnet), han mejorado significativamente la precisión.

Adopción industrial

El objetivo de esta solución es ayudar a los clientes a tomar decisiones informadas a la hora de comprar vehículos y permitir a los responsables de los fabricantes de equipos originales analizar los factores que contribuyen a las fluctuaciones de las ventas y formular estrategias de impulso de las ventas específicas, todo ello basándose en información basada en datos. La solución también se puede adoptar en otros sectores, como se muestra en la siguiente tabla.

Industria Adopción de soluciones
Comercio minorista y comercio electrónico Al monitorear de cerca las opiniones, los comentarios y los sentimientos de los clientes expresados ​​en los canales de redes sociales, la solución puede ayudarlos a tomar decisiones informadas al comprar dispositivos electrónicos.
Hospitalidad y Turismo La solución puede ayudar a hoteles, restaurantes y compañías de viajes a comprender los sentimientos, comentarios y preferencias de los clientes y ofrecer servicios personalizados.
Entretenimiento y medios Puede ayudar a los estudios de televisión, cine y compañías de música a analizar y evaluar las reacciones de la audiencia y planificar estrategias de contenido para el futuro.

Conclusión

La solución que se analiza en esta publicación demuestra el poder de la IA generativa en AWS al permitir a los clientes utilizar conversaciones en lenguaje natural para obtener información personalizada basada en datos que les permita tomar decisiones informadas durante la compra de su vehículo. También ayuda a los fabricantes de equipos originales a mejorar la satisfacción del cliente, mejorar las funciones e impulsar el crecimiento de las ventas en un mercado competitivo.

Aunque esta publicación se ha centrado en el ámbito automotriz, el enfoque presentado tiene potencial para ser adoptado en otras industrias para brindar una experiencia de compra más ágil y satisfactoria.

En general, la solución demuestra el poder de la IA generativa para brindar información precisa basada en diversas fuentes de datos estructurados y no estructurados regidos por barreras de seguridad para ayudar a evitar conversaciones no autorizadas. Para obtener más información, consulte la Asistente automotriz GenAI de HCLTech en el mercado de AWS.


Acerca de los autores

Cantos devocionales Deep Singh Dirige el Centro de Excelencia de AWS Gen AI/AIML en HCL Technologies. Desempeña un papel fundamental en el desarrollo de proyectos de prueba de concepto y casos de uso que utilizan las ofertas de IA generativa de AWS. Ha liderado con éxito numerosos compromisos con clientes para ofrecer soluciones de análisis de datos e IA/aprendizaje automático. Tiene la certificación de Especialista en IA/ML de AWS y Practicante de IA, y escribe blogs técnicos sobre servicios y soluciones de IA/ML. Con su experiencia y liderazgo, permite a los clientes maximizar el valor de la IA generativa de AWS.

Mihir Bhambri trabaja como arquitecto sénior de soluciones de AWS en HCL Technologies. Se especializa en soluciones de IA generativa personalizadas, impulsando la innovación en toda la industria en sectores como los servicios financieros, las ciencias biológicas, la fabricación y la automoción. Aprovecha los servicios en la nube de AWS y diversos modelos de lenguaje grande (LLM) para desarrollar múltiples pruebas de concepto que respalden las mejoras comerciales. También posee la certificación de arquitecto de soluciones de AWS y ha contribuido a la comunidad de investigación al ser coautor de artículos y ganar varios hackatones de IA generativa de AWS.

Yajuvender Singh es arquitecto de soluciones sénior de AWS en HCLTech y se especializa en tecnologías de inteligencia artificial generativa y en la nube de AWS. Como profesional certificado por AWS, ha brindado soluciones innovadoras en las industrias de seguros, automotriz, ciencias biológicas y fabricación, y también ganó varios hackatones GenAI de AWS en India y Londres. Su experiencia en el desarrollo de arquitecturas de nube sólidas y soluciones GenAI, combinada con sus contribuciones a la comunidad técnica de AWS a través de blogs de autoría conjunta, demuestra su liderazgo técnico.

Sara van de Moosdijk, conocida simplemente como Moose, es una arquitecta de soluciones especializada en IA y ML en AWS. Ayuda a los socios de AWS a crear y escalar soluciones de IA y ML mediante habilitación técnica, soporte y orientación arquitectónica. Moose dedica su tiempo libre a pensar cómo colocar más libros en su repleta estantería.

jerry li, es arquitecto de soluciones de socios sénior en AWS Australia y colabora estrechamente con HCLTech en APAC desde hace más de cuatro años. También trabaja con el equipo del Centro de excelencia de datos e inteligencia artificial de HCLTech, centrándose en el análisis de datos de AWS y el desarrollo de habilidades de inteligencia artificial generativa, la creación de soluciones y la estrategia de salida al mercado (GTM).


Acerca de HCLTech

HCLTech está a la vanguardia de la tecnología de IA generativa y utiliza la sólida pila tecnológica de IA generativa de AWS. La empresa ofrece soluciones de IA generativa de vanguardia que están preparadas para revolucionar la forma en que las empresas y las personas abordan la creación de contenido, la resolución de problemas y la toma de decisiones. HCLTech ha desarrollado un conjunto de activos y soluciones de IA generativa de fácil implementación que abarcan los dominios de la experiencia del cliente, la integración del ciclo de vida del desarrollo de software (SDLC) y los procesos industriales.

Artículos relacionados

punto_img

Artículos Recientes

punto_img