Logotipo de Zephyrnet

IA generativa y cumplimiento semántico – DATAVERSITY

Fecha:

Solo CPT y sus pares saben cuántas declaraciones se han realizado en función de los resultados de la IA generativa. Pero hay un montón de ellos.

Mi experiencia como modelador de datos durante muchos años me hace temblar un poco, porque lo que los amables ayudantes de IA nos ayudan a producir está sujeto a procesos cognitivos, donde nosotros, los lectores, procesamos la entrada, los resultados de IA, con respecto a la semántica aprehendida (por nosotros mismos), específicos conocimiento que cada uno de nosotros ha construido a lo largo del tiempo. Y esperamos que los resultados de la IA sigan patrones similares (es decir, correspondientes). 

En otras palabras, esperaría que "ChatSome" cumpliera implícitamente con una semántica específica, integrada en los conjuntos de entrenamiento:

Diagrama realizado a modo de WebWOWL – ir allí para leer el diagrama

La red semántica del ejemplo anterior es la conocida ontología FOAF (Friend of a Friend), que surge de la comunidad de la red mundial. Por lo tanto, si ChatSome analiza cuestiones relacionadas con amigos, parecería natural esperar que las estructuras semánticas no difieran demasiado del estándar anterior (FOAF).

La semántica compartida es una necesidad en la comunicación humana.

¿Ingeniería rápida al rescate?

Parece que la respuesta, por ahora, de los especialistas en marketing de IA es una "ingeniería rápida" cuidadosa, curada, porque si no puede definir lo que está preguntando, ¿cómo debería cualquier IA (o humano) ser capaz de responder de manera inteligente?

Véase, por ejemplo, este excelente artículo reciente de Harvard Business Review de Oguz A. Acar, “La ingeniería rápida de IA no es el futuro"

Te animo a leer el artículo, pero obtendrás la esencia en esta cita: 

“Sin embargo, a pesar del alboroto que lo rodea, la prominencia de la ingeniería rápida puede ser fugaz por varias razones. En primer lugar, las futuras generaciones de sistemas de IA serán más intuitivas y hábiles para comprender el lenguaje natural, lo que reducirá la necesidad de indicaciones meticulosamente diseñadas. En segundo lugar, los nuevos modelos de lenguaje de IA como GPT4 ya muestran una gran promesa en la elaboración de avisos: la propia IA está a punto de volver obsoleta la ingeniería de avisos. Por último, la eficacia de las indicaciones depende del algoritmo específico, lo que limita su utilidad en diversos modelos y versiones de IA.

Entonces, ¿cuál es una habilidad más duradera y adaptable que nos seguirá permitiendo aprovechar el potencial de la IA generativa? Es formulación del problema – la capacidad de identificar, analizar y delinear problemas.”

Estoy de acuerdo con eso en gran medida. Significa que hay más trabajo por hacer. De hecho, me parece que lo que escuchamos de algunos de los creadores de mercado de IA generativa más optimistas y esperanzados está a la par con esta famosa (supuesta) cita de la autora sueca Astrid Lindgren, quien, supuestamente, deja que su personaje principal, Pippi Calzaslargas dice: "Nunca lo había intentado antes, así que creo que definitivamente debería poder hacerlo".

Aquí hay una portada de libro del universo de Pippi Calzaslargas:

Fuente de imagen: Rakuten Kobo

¡Nada era demasiado difícil para Pippi, incluso levantar su caballo! Hay al menos 14 libros y varias películas que documentan esto. Los niños y sus padres están fascinados con estas historias hasta bien entrada la edad adulta. ¿Por qué esto me recuerda algunas de las narraciones que salen de partes de California?

Sin embargo, se encuentran disponibles puntos de vista más equilibrados: en su excelente nuevo libro, “Los empresarios de datos – The Promise of AI and the Creators Building Our Future”, Bob Muglia destaca cómo Yann LeCun de la Universidad de Nueva York y Meta señala algunos fundamentos sobre el aprendizaje y la aprehensión en "Un camino hacia la inteligencia artificial autónoma versión 0.9.2, 2022-06-27":

“Los animales humanos y no humanos parecen capaces de aprender una enorme cantidad de conocimientos previos sobre cómo funciona el mundo a través de la observación y a través de una cantidad incomprensiblemente pequeña de interacciones de una manera independiente de la tarea y sin supervisión. Se puede plantear la hipótesis de que este conocimiento acumulado puede constituir la base de lo que a menudo se denomina sentido común. El sentido común puede verse como una colección de modelos del mundo que pueden decirle a un agente lo que es probable, lo que es plausible y lo que es imposible. Usando tales modelos del mundo, los animales pueden aprender nuevas habilidades con muy pocos intentos. Pueden predecir las consecuencias de sus acciones, pueden razonar, planificar, explorar e imaginar nuevas soluciones a los problemas. Es importante destacar que también pueden evitar cometer errores peligrosos cuando se enfrentan a una situación desconocida”.

Sin duda vale la pena mirar el sentido común, como muestra la siguiente pequeña charla.

Un chat reciente

Recientemente conversé con GPT 4 sobre modelado de datos. Pregunté sobre los "25 tipos de modelos de datos MÁS importantes".

Cuando llegó el resultado, noté de inmediato que Modelado de hechos no estaba en la lista. Tan pronto como comenté eso, el resultado se modificó y ahora se veía así:

 “Me disculpo por la omisión. El modelo de hechos es, de hecho, una importante técnica de modelado de datos, que se utiliza para modelar sistemas complejos y capturar reglas comerciales. Se enfoca en identificar y definir los hechos que describen las operaciones de un sistema, así como las relaciones entre esos hechos.

Por lo tanto, el modelo de hechos también debe incluirse en la lista de modelos de datos importantes. Aquí hay una lista actualizada de los 25 modelos de datos más importantes, incluido el modelo de hechos:

    Modelo de datos relacionales

    Modelo de datos de entidad-relación (ER)

    Modelo de datos orientado a objetos

    Modelo de datos objeto-relacional

    Modelo de datos jerárquico

    Modelo de datos de red

    Modelo de datos dimensionales

    Modelo de datos de archivo plano

    Modelo de datos semánticos

    Modelo de datos conceptual

    Modelo de datos lógicos

    Modelo de datos físicos

    Modelo de datos de almacén de datos

    Modelo de datos del mercado de datos

    Modelo de datos XML

    Modelo de datos NoSQL

    Modelo de datos orientado a documentos

    Modelo de datos de familia de columnas

    Modelo de datos de valores clave

    Modelo de datos de gráfico

    Modelo de datos RDF

    Modelo de datos OWL

    Modelo de datos UML

    Modelo de datos EAV

    Modelo de datos OLAP

    modelo de hechos

Gracias por traerlo a mi atención.”

Yo: ¿Los modelos de bóveda de datos y ancla también son tipos de modelos de datos importantes?

“Sí, tanto la bóveda de datos como los modelos ancla son tipos importantes de modelos de datos que han ganado popularidad en los últimos años.

Vista previa de investigación gratuita. ChatGPT puede producir información inexacta sobre personas, lugares o hechos”. 

***Fin del chat con la versión del 23 de marzo de ChatGPT.

Sí, produjo información inexacta. Y agregó contenido al resultado en un paso adicional de "ingeniería rápida".

Estoy tentado de decir: ¡Pippi, haz tu tarea!

La vida solo se puede entender al revés, pero hay que vivirla hacia delante

El subtítulo anterior es una cita del filósofo danés Soren Kierkegaard:

Fuente de la imagen: The Royal Library, Dinamarca, 1923, dominio público, vía Wikimedia Commons

Los modelos de lenguaje grande (LLM) son, por necesidad, productos de hechos pasados ​​sobre eventos pasados. Pero nosotros, como consumidores generativos de IA, necesitamos predicciones confiables con anticipación. Incluso dado que todos los "transformadores" son noticias viejas. 

Comprender los contextos pasados ​​y futuros es esencial. De hecho, la IA generativa y sus resultados son un ejercicio de sensibilidad contextual, en otras palabras, semántica, significado, estructura, relaciones a lo largo del tiempo.

Ese es el verdadero cisma.

Ejecutar predicciones generativas basadas en contenido LLM ligeramente desactualizado es como ejecutar en un almacén de datos del año pasado.

Agregar predicciones además de LLM también se conoce como estadísticas. Eso está muy bien, en particular, si se le proporcionan algunos indicadores de calidad y confianza.

¿Necesidades de estándares semánticos normativos?

Nosotros, como profesionales (modeladores de datos y científicos de la información), debemos tomar alguna acción responsable para obligar a las herramientas generativas de IA a poder limitarse a un contexto y una semántica determinados. 

Podrían ser los propios modelos de datos y el glosario de una organización, pero también podrían ser ontologías y vocabularios oficiales de la industria, el país o la UE, así como schema.org y Wikidata, etc.
Necesitamos que los resultados de la IA muestren contextos claramente definidos y muestren cumplimiento con la semántica definida.

Hay muchas posibilidades en este espacio.

En primer lugar, me gustaría saber:

¿Este resultado se basa en hechos totalmente documentables y establecidos? ¿O pueden ocurrir aserciones y semánticas ficticias? En otras palabras, ¿es esto realidad o ficción? ¡Eso está cerca de insistir en una etiqueta general que significa "Contiene solo hechos certificados"!

Si estuviera en un sector fuertemente regulado como el gobierno, las finanzas o la industria farmacéutica, me gustaría saber con qué confianza puedo confiar en los resultados. Lo harán sostener en la corte, ¿Por ejemplo? ¿Son multitemporales (o al menos bitemporales)?

En cuanto a gestión de la calidad en general (ver, por ejemplo, el conjunto de ISO 9000 QMS de estándares de salud) hay muchos aspectos de la norma ISO 9000 de los que la gestión de datos podría aprender. Entonces, un sistema de IA generativa podría etiquetarse de acuerdo con la perspectiva de calidad que cumple. Esto podría conducir a un Estándar de gestión de cumplimiento semántico ISO? Similar a la familia ISO 9000.

Otro aspecto importante es especificidad. Piense en la ontología FOAF con la que comenzamos. De hecho, hay tantos estándares, vocabularios y modelos de datos de la industria nacionales e internacionales que tendría sentido introducir un compliance declaración sobre los resultados de la IA.

Aquí, siga algunos ejemplos de medios semánticos "normativos" (o al menos de uso común), útiles para mapear el significado en Internet, tomados del libro reciente de Andrew Iliadis con ese título (andrewiliadis.com):

Los anteriores son solo algunos ejemplos.

También a nivel nacional e internacional hay muchas ontologías, taxonomías, modelos de datos, esquemas y demás disponibles públicamente. 

Bueno, en realidad, lo que también tiene son algunos modelos de datos caseros propios. ¿No sería bueno tener una prueba de cumplimiento entre su propia semántica y la de un LLM de IA generativa? Podría ser una buena característica del producto AI, si me preguntas.

IA generativa verificablemente compatible

Si estuviera trabajando en el sector financiero, bien podría querer saber si el resultado propuesto, así como el modelo de lenguaje, estaban certificados para cumplir con el vocabulario y la semántica de FIBO (la ontología de negocios de la industria financiera publicada por el consejo EDM) . Si puedo contar con eso, estoy en casa a salvo. Si no, tengo que leer, interpretar y sacar conclusiones adicionales, junto con muchos colegas en el departamento de cumplimiento normativo. En el sector financiero ese personal ya se está dirigiendo por este camino, con el BCBS 239 estándar pidiendo taxonomías y arquitecturas integradas. 

No solo los resultados, sino también los transformadores y otras partes de los modelos de lenguaje, deben ser comprobablemente compatibles. 

Sinceramente, creo que el mundo necesita garantía de calidad en estos niveles, si los negocios y la política se van a llevar a cabo sobre la base de la IA generativa a mayor escala. Entonces, ¡traiga esos generadores de IA certificados! ¡Y danos a nosotros, las personas con HI, una oportunidad!

punto_img

Información más reciente

punto_img