Logotipo de Zephyrnet

Cómo aprovechar su gráfico de conocimiento de Schema.org para LLM

Fecha:

No es ningún secreto que la revolución de la IA está en marcha. Según un informe de Accenture, el 42% de las empresas quiere hacer una gran inversión en ChatGPT en 2023.

La mayoría de las organizaciones están tratando de mantenerse competitivas adoptando los cambios de IA en el mercado e identificando formas de aprovechar los modelos de lenguaje grande (LLM) "listos para usar" para optimizar tareas y automatizar procesos comerciales.

Sin embargo, a medida que se acelera la adopción de la IA generativa, las empresas deberán ajustar sus Modelos de lenguaje extenso (LLM) utilizando sus propios conjuntos de datos para maximizar el valor de la tecnología y abordar sus necesidades únicas. Existe una oportunidad para que las organizaciones aprovechen sus Gráficos de conocimiento de contenido para acelerar sus iniciativas de IA y obtener beneficios de SEO al mismo tiempo.

Entonces, ¿qué es un LLM? 

A Modelo de lenguaje grande (LLM) es un tipo de inteligencia artificial (IA) generativa que se basa en el aprendizaje profundo y conjuntos de datos masivos para comprender, resumir, traducir, predecir y generar contenido nuevo.

Los LLM se usan más comúnmente en procesamiento natural del lenguaje (PNL) como ChatGPT, donde los usuarios pueden ingresar una consulta en lenguaje natural y generar una respuesta. Las empresas pueden utilizar estas herramientas impulsadas por LLM internamente para brindar a los empleados soporte de preguntas y respuestas o externamente para brindar una mejor experiencia al cliente.

Sin embargo, a pesar de la eficiencia y los beneficios que ofrece, los LLM también tienen sus desafíos.

Los LLM son conocidos por sus tendencias a 'alucinar' y producen resultados erróneos que no están basados ​​en los datos de entrenamiento o en interpretaciones erróneas de la indicación de entrada. Son costosos de entrenar y ejecutar, difíciles de auditar y explicar, y a menudo brindan respuestas inconsistentes.

Afortunadamente, puede usar gráficos de conocimiento para ayudar a mitigar algunos de estos problemas y proporcionar información estructurada y confiable para que la usen los LLM.

¿Qué es un gráfico de conocimiento?

A Conocimiento Gráfico es una colección de relaciones entre cosas definidas utilizando un vocabulario estandarizado, a partir del cual se puede obtener nuevo conocimiento a través de la inferencia. Cuando el conocimiento se organiza en un formato estructurado, permite eficiencias en la recuperación de información y mejora la precisión.

Por ejemplo, la mayoría de las organizaciones tienen sitios web que contienen grandes cantidades de información sobre el negocio, como los productos y servicios ofrecidos, ubicaciones, blogs, eventos, estudios de casos y más. Sin embargo, la información existe como texto en el sitio web, lo que significa que los datos no están estructurados.

Puede utilizar datos estructurados, también conocidos como Marcado de esquemas, para describir el contenido y las entidades de cada página. También puede usar datos estructurados para conectar los diferentes temas en su sitio o vincularlos a bases de conocimiento autorizadas externas (es decir, Wikidata).

La mayoría de los usuarios implementan Schema Markup en sus sitios para ayudar a los motores de búsqueda a comprender y contextualizar cómo se relacionan entre sí las entidades de sus sitios. Este SEO semántico La táctica ayudará a los motores de búsqueda a proporcionar a los usuarios respuestas más precisas a sus consultas.

By conectando su marcado Schema, también está desarrollando de manera efectiva su Gráfico de conocimiento de contenido: un gráfico de conocimiento de marketing lleno de información sobre su negocio. Luego puede usar su gráfico de conocimiento de contenido para proporcionar información estructurada valiosa para mejorar las capacidades de los LLM para su negocio.

LLM y Schema Markup

Para desarrollar su gráfico de conocimiento de contenido, puede crear su Schema Markup para representar su contenido. Una de las nuevas formas en que los SEO pueden lograr esto es usar el LLM para generar Schema Markup para una página. Esto suena muy bien en teoría, sin embargo, existen varios riesgos y desafíos asociados con este enfoque.

Uno de esos riesgos incluye alucinaciones de propiedad. Esto sucede cuando el LLM crea propiedades que no existen en el vocabulario de Schema.org. En segundo lugar, es probable que el LLM desconozca las propiedades de datos estructurados requeridas y recomendadas por Google, por lo que las predecirá y pondrá en peligro sus posibilidades de lograr un resultado enriquecido. Para superar esto, necesita un ser humano para verificar las propiedades de datos estructurados generados por el LLM.

Además, el LLM límite de fichas de 4,097 tokens tanto para la entrada como para la salida restringirá la optimización a aproximadamente 3,000 palabras, lo que dará como resultado fragmentos de marcado que debe combinar manualmente o que faltan partes importantes del contenido de la página.

Los LLM son buenos para identificar entidades en Wikidata. Sin embargo, carece de conocimiento de las entidades definidas en otras partes de su sitio. Esto significa que el marcado creado por el LLM creará entidades duplicadas, desconectadas entre las páginas de su sitio o incluso dentro de una página, lo que dificulta aún más la administración de sus entidades.

Además de las entidades duplicadas, los LLM carecen de la capacidad de administrar su Schema Markup a escala. Solo puede producir Schema Markup estático para cada página. Si realiza cambios en el contenido de su sitio, su Schema Markup no se actualizará dinámicamente, lo que resulta en deriva del esquema.

Con todos los riesgos y desafíos de este enfoque fragmentado, el Schema Markup creado por el LLM es un Schema Markup estático y desconectado para una página; no lo ayuda a desarrollar su gráfico de conocimiento de contenido.

En su lugar, debe crear su Schema Markup de una manera escalable y conectada que se actualice dinámicamente. De esa manera, tendrá un gráfico de conocimiento actualizado que puede usarse no solo para SEO, sino también para acelerar sus experiencias e iniciativas de IA.

Sinergia entre grafos de conocimiento y LLM

Hay tres formas principales de aprovechar el gráfico de conocimiento de contenido para mejorar las capacidades de los LLM para las empresas.

  1. Las empresas pueden Presión en sus LLM utilizando su gráfico de conocimiento de contenido.
  2. Las empresas pueden usar los LLM para pregunta sus gráficos de conocimiento del contenido.
  3. Las empresas pueden estructurar su información en forma de un gráfico de conocimiento para ayudar a que el LLM funcione de manera más eficiente.

Capacitación del LLM utilizando su gráfico de conocimiento de contenido

Para que una empresa prospere en esta era tecnológica, es crucial conectarse con los clientes a través de su canal preferido. Las experiencias de IA impulsadas por LLM que responden preguntas de manera automatizada y consciente del contexto pueden respaldar estrategias digitales multicanal. Al aprovechar la IA para admitir múltiples canales, las empresas pueden atender a sus clientes a través de sus canales preferidos sin tener que contratar más empleados.

Dicho esto, si desea aprovechar un chatbot de IA para atender a sus clientes, desea que les brinde las respuestas correctas en todo momento. Sin embargo, los LLM no tienen la capacidad de realizar una verificación de hechos. Generan respuestas basadas en patrones y probabilidades. Esto da como resultado problemas como respuestas inexactas y alucinaciones.

Para mitigar este problema, las empresas pueden usar sus gráficos de conocimiento de contenido para entrenar y poner a tierra el LLM para casos de uso específicos. En el caso de un chatbot de IA, los LLM necesitarían comprender qué entidades y relaciones tiene en su negocio para brindar respuestas precisas a sus clientes.

El vocabulario de Schema.org es sólido y, al aprovechar la amplia gama de propiedades disponibles en el vocabulario, puede describir las entidades de su sitio web y cómo se relacionan con mayor especificidad. La colección de entidades del sitio web forma un gráfico de conocimiento de contenido que es un conjunto de datos integral que puede fundamentar sus LLM. El resultado son respuestas precisas y basadas en hechos para mejorar su experiencia de IA.

Ilustremos cómo su gráfico de conocimiento de contenido puede entrenar e informar a su AI Chatbot.

Una red de atención médica en los EE. UU. tiene un sitio web con páginas sobre sus médicos, ubicaciones, especializaciones, servicios, etc. La página del médico tiene contenido relacionado con las especialidades, calificaciones, áreas de servicio y horarios de atención específicos del médico.

Si la red de atención médica tiene un gráfico de conocimiento de contenido que captura toda la información en su sitio, cuando un usuario busca en AI Chatbot "Quiero reservar una cita matutina con un neurólogo en Minnesota esta semana", AI Chatbot puede deducir la información accediendo al gráfico de conocimiento de contenidos de la red asistencial. La respuesta serían los nombres de los neurólogos que atienden a pacientes en Minnesota y tienen citas disponibles por la mañana con su enlace de reserva.

El gráfico de conocimiento de contenido también está disponible, por lo que puede implementar rápidamente su gráfico de conocimiento y capacitar a su LLM. Si es cliente de la aplicación Schema, podemos exportar fácilmente su gráfico de conocimiento de contenido para que pueda entrenar su LLM.

Uso de LLM para consultar su gráfico de conocimiento

En lugar de entrenar el LLM, puede usar el LLM para generar las consultas para obtener las respuestas directamente desde su gráfico de conocimiento de contenido.

Este enfoque de generar respuestas a través del LLM es menos complicado, menos costoso y más escalable. Todo lo que necesita es un gráfico de conocimiento de contenido y un punto final SPARQL. (Buenas noticias, la aplicación Schema ofrece ambos).

Así es como funciona:

  1. La aplicación Schema App carga el modelo de contenido desde su gráfico de conocimiento de contenido. Estos serían todos los tipos de datos y propiedades de Schema.org que existen dentro del gráfico de conocimiento de su sitio web.
  2. Luego, el usuario le haría una pregunta a la aplicación Schema App.
  3. La aplicación Schema App combina la pregunta con el modelo de contenido y le pide al LLM que escriba una consulta SPARQL. Nota: lo único que hace el LLM es transformar la pregunta en una consulta.
  4. La aplicación Schema App luego ejecuta el SPARQL contra su gráfico de conocimiento de contenido y muestra los resultados o solicitudes como una respuesta formateada utilizando el LLM.

Este método es posible porque los LLM tienen un gran conocimiento de SPARQL y pueden ayudar a traducir la pregunta del lenguaje natural a una consulta SPARQL.

Al hacer esto, el LLM no tiene que mantener los datos en la memoria o ser entrenado en los datos porque las respuestas existen dentro del gráfico de conocimiento del contenido, lo que lo convierte en una solución sin estado y que requiere menos recursos. Además, las empresas pueden evitar proporcionar todos sus datos al LLM, ya que este método introduce un punto de control para que el propietario del gráfico de conocimiento solo permita preguntas sobre sus datos que él apruebe.

Este enfoque también supera algunas de las restricciones de los LLM.

Por ejemplo, los LLM tienen límites de token, que restringen el número de palabras de entrada y salida que se pueden incluir. Este enfoque elimina este problema al usar los LLM para crear la consulta/solicitud y usar el gráfico de conocimiento para realizar la consulta. Dado que las consultas SPARQL pueden consultar gigabytes de datos, no tienen limitaciones de token. Esto significa que puede usar un gráfico de conocimiento de contenido completo sin preocuparse por el límite de palabras.

Al usar el LLM con el único propósito de consultar el gráfico de conocimiento, puede lograr sus resultados de IA de una manera elegante y rentable y tener control de sus datos al mismo tiempo que supera algunas de las restricciones actuales de LLM.

Optimización de LLM mediante la gestión de datos en forma de gráfico de conocimiento

Puede aprender a máquina el lugar de nacimiento de Obama cada vez que lo necesite, pero cuesta mucho y nunca está seguro de que sea correcto”. – Jamie Taylor, gráfico de conocimiento de Google

Uno de los costos más considerables de ejecutar un LLM es el costo de la inferencia (también conocido como el costo de ejecutar una consulta a través del LLM).

En comparación con una consulta tradicional, los LLM como ChatGPT deben ejecutarse en GPU costosas para responder consultas ($ 0.36 por consulta según la investigación), lo que puede reducir los beneficios a largo plazo.

Las empresas pueden reducir el costo de inferencia del LLM almacenando las respuestas históricas o el conocimiento generado por el LLM en forma de gráfico de conocimiento. De esa manera, si se vuelve a hacer una pregunta, el LLM no tiene que agotar recursos para generar la misma respuesta. Simplemente puede buscar la respuesta almacenada en el gráfico de conocimiento.

Los datos no estructurados en los que se entrena el LLM también pueden causar ineficiencias en la recuperación de información y altos costos de inferencia. Por lo tanto, convertir datos no estructurados, como documentos y páginas web, en un gráfico de conocimiento puede reducir el tiempo de recuperación de la información y generar datos más confiables.

A medida que el volumen de datos en el entorno de la nube híbrida sigue creciendo a un ritmo exponencial, los gráficos de conocimiento desempeñan un papel fundamental en la gestión y organización de los datos. Contribuyen a la 'Gran Convergencia', que combina la gestión de datos y la gestión del conocimiento para garantizar una organización y recuperación eficientes de la información.

Cree su gráfico de conocimiento a través de la aplicación Schema

En resumen, la integración de gráficos de conocimiento con LLM puede mejorar significativamente la precisión en la toma de decisiones, especialmente en el ámbito del marketing.

El gráfico de conocimiento de contenido es una base excelente para aprovechar los datos del esquema en las herramientas LLM, lo que lleva a más plataformas preparadas para IA. Es una inversión que podría dar buenos resultados, especialmente en un mundo que depende cada vez más de la IA y la gestión del conocimiento.

En Schema App, podemos ayudarlo a implementar rápidamente su capa de datos Schema Markup y desarrollar un gráfico de conocimiento de contenido semánticamente relevante y listo para usar para preparar su organización para la IA.

Independientemente de si utiliza la aplicación Schema para crear su Schema Markup, podemos producir un gráfico de conocimiento de contenido para usted. Schema App puede capturar los datos de Schema.org de su implementación existente utilizando nuestro Schema App Analyzer para desarrollar su gráfico de conocimiento de marketing.

Ponte en contacto con nuestro equipo para obtener más información sobre cómo Schema App puede ayudarlo a construir su gráfico de conocimiento de marketing para mejorar su LLM.

Mark van Berkel

Mark van Berkel es cofundador y director de operaciones de Hunch Manifest y creador de Schema App. Schema App es una solución integral de Schema Markup que ayuda a los equipos de SEO empresarial a crear, implementar y administrar Schema Markup para destacarse en la búsqueda. Es experto en Tecnología Semántica y Marketing de Búsqueda Semántica. Mark creó la aplicación Schema para resolver sus propios desafíos al escribir y validar el marcado de esquema.

punto_img

Información más reciente

punto_img