Logotipo de Zephyrnet

Empujando los límites de la interacción humano-IA en IUI 2021

Fecha:

En la edición virtual de 2021 de la Conferencia Internacional ACM sobre Interfaces de Usuario Inteligentes (IIU 2021), los investigadores de IBM presentarán cinco artículos, dos artículos de taller y dos demostraciones. Además, hemos organizado tres talleres en múltiples áreas clave de IUI, incluida la ciencia de datos automatizada, la IA explicable, las interfaces conversacionales, la IA generativa y la interacción entre humanos y agentes. En IBM Research, creemos que los sistemas de IA siempre contendrán un elemento humano para garantizar que estos sistemas sean justos e imparciales, robustos y seguros, y se apliquen éticamente y al servicio de las necesidades de sus usuarios. Nuestro enfoque de la IA centrado en el ser humano nos ayuda a comprender para quién estamos construyendo sistemas de IA y evaluar qué tan bien funcionan esos sistemas para sus usuarios finales.

Ciencia de datos automatizada

La automatización del aprendizaje automático y la ciencia de datos es un tema importante en la comunidad de IUI. En IBM, estamos desarrollando tecnologías que facilitan a los científicos de datos la producción de modelos de alta calidad mediante la automatización de diferentes pasos de la canalización de la ciencia de datos: etiquetado para tareas de aprendizaje automático supervisadas, unión de conjuntos de datos dispares y limpieza de datos, características de ingeniería, creación de redes neuronales arquitecturas de red, ajuste de hiperparámetros y evaluación de modelos en cuanto a equidad y robustez. En conjunto, estas tecnologías se conocen como IA automática de IBM y están disponibles para su uso en Estudio IBM Watson.

El etiquetado de datos es un paso importante en el ciclo de vida del aprendizaje automático supervisado. Es una actividad humana laboriosa que comprende la toma de decisiones repetidas: el etiquetador humano decide cuál de varias etiquetas potenciales aplicar a cada punto de datos. Los investigadores de IBM diseñaron un asistente de etiquetado de IA que utiliza un algoritmo de aprendizaje semisupervisado para predecir las etiquetas más probables para cada ejemplo. En su estudio, "Aumento de la velocidad y la precisión del etiquetado de datos a través de una interfaz asistida por IA", descubrieron que brindar asistencia a través de una recomendación de etiquetas reducía el espacio de decisión del etiquetador al centrar su atención solo en las etiquetas más probables. Esta técnica mejoró la velocidad y la precisión de los etiquetadores, especialmente cuando el etiquetador encontraba la etiqueta correcta en el espacio reducido para etiquetas.

El conocimiento del dominio a menudo es necesario para varias etapas del desarrollo del modelo de aprendizaje automático (ML); sin embargo, los científicos de datos se enfrentan a una pronunciada curva de aprendizaje al trabajar en un nuevo dominio. Los investigadores de IBM desarrollaron una herramienta llamada Ziva que facilita el intercambio de conocimientos entre expertos de dominio y científicos de datos para desarrollar modelos de PNL. Ziva se informó mediante un estudio de entrevistas con científicos de datos para comprender los tipos comunes de conocimiento de dominio útiles para construir modelos de PNL. Un estudio de caso mostró cómo Ziva pudo respaldar el intercambio de conocimientos de dominio mientras mantenía niveles bajos de carga mental y estrés. Ziva ayudó a los científicos de datos a aprender información esencial sobre el dominio y facilitó varias tareas en la creación de modelos NLP, incluidas las etiquetas de arranque y la mejora de la ingeniería de características.

Al utilizar los sistemas de ciencia de datos automatizados actuales, incluido IBM AutoAI, los científicos de datos deben seleccionar un modelo adecuado de un conjunto de modelos candidatos producidos por la IA. Actualmente, los científicos de datos seleccionan estos modelos en función de métricas de rendimiento como la exactitud o la precisión. Sin embargo, hay otras formas de comparar modelos y cómo toman decisiones, como examinar qué características contribuyen a la decisión de un modelo, los tipos de errores que comete un modelo y por qué. Para hacer que la selección de modelos sea un proceso más transparente, los investigadores de IBM desarrollaron Model LineUpper, una herramienta interactiva que integra múltiples técnicas de visualización e inteligencia artificial explicable (XAI). En un estudio de usuarios, los participantes otorgaron calificaciones altas a la usabilidad de Model LineUpper y agradecieron la idea de comparar modelos mediante la comprensión de su lógica de decisión. Este trabajo también proporciona implicaciones de diseño para utilizar técnicas XAI para la comparación de modelos y respaldar las necesidades únicas de los usuarios de sistemas automatizados de ciencia de datos.

IA explicable

Los sistemas algorítmicos inteligentes que aplican un razonamiento complejo para tomar decisiones, como los sistemas de apoyo a las decisiones o de recomendación, son difíciles de entender para las personas. Los algoritmos permiten la explotación de fuentes de datos ricas y variadas para respaldar la toma de decisiones humana; sin embargo, existen preocupaciones crecientes en torno a su imparcialidad, sesgo y responsabilidad, ya que estos procesos suelen ser opacos para los usuarios. El Taller sobre Transparencia y Explicaciones en Sistemas Inteligentes (TExSS) reunirá a investigadores que exploran la transparencia, la equidad y la responsabilidad al diseñar, desarrollar y evaluar interfaces de usuario inteligentes, con un enfoque específico en cómo el diseño de estas interfaces puede apoyar causas de justicia social. . Los participantes en el taller TExSS discutirán el papel de la IA explicable (XAI) en los escenarios de toma de decisiones, sus visiones de los procesos de toma de decisiones mejorados por IA y explorarán cómo XAI afecta la forma en que las personas justifican sus decisiones.

Los investigadores de IBM presentarán una demostración de XNLP, una encuesta interactiva de investigaciones recientes de vanguardia en el campo de la IA explicable dentro del dominio del procesamiento del lenguaje natural (XAI-NLP). XNLP está diseñado para ser un centro de datos en línea de conocimientos seleccionados y organizados extraídos de trabajos académicos cuidadosamente revisados. El sistema organiza e ilustra visualmente las publicaciones de XAI-NLP y destila su contenido para permitir a los usuarios obtener información, generar ideas y explorar el campo.

IA generativa

Recientemente se han aplicado nuevas técnicas generativas, como la traducción automática neuronal no supervisada (NMT), a la tarea de generar código fuente traduciéndolo de un lenguaje de programación a otro. Pero, debido a la naturaleza probabilística de los modelos generativos, el código producido de esta forma puede contener imperfecciones como errores de compilación o lógicos. Los investigadores de IBM presentarán un estudio, “¿Perfección no requerida? Human-AI Partnerships in Code Translation”, en el que examinaron si los ingenieros de software tolerarían tales imperfecciones y las formas de ayudarlos a detectar y corregir estos errores. Este estudio destaca cómo las características de la interfaz de usuario, como el resaltado de confianza y las traducciones alternativas, pueden ayudar a los ingenieros de software a trabajar de manera productiva con modelos NMT generativos.

Los avances recientes en la IA generativa han dado como resultado un aumento rápido y espectacular de la fidelidad de los artefactos creados, desde imágenes de rostros de aspecto realista y videos profundamente falsos de destacados líderes empresariales hasta secuencias de péptidos antimicrobianos que tratan enfermedades. El segundo Taller sobre cocreación humana-IA con modelos generativos reunirá a investigadores y profesionales de HCI e IA para explorar y comprender mejor las oportunidades y los desafíos en la construcción, el uso y la evaluación de sistemas co-creativos humanos-IA.

En un artículo de este taller, los investigadores de IBM informan los resultados de un experimento controlado en el que los científicos de datos utilizaron varios modelos, incluido un modelo generativo basado en GNN, para generar y, posteriormente, editar la documentación para el código de ciencia de datos dentro de los portátiles Jupyter. Al analizar sus patrones de edición, descubrieron varias formas en que los humanos realizaron mejoras en la documentación generada por IA.

Interfaces impulsadas por IA: conversacionales, juegos y otras

Los investigadores de IBM investigaron numerosas interfaces impulsadas por IA, incluidos agentes conversacionales, un juego para estudiar ataques de envenenamiento de puerta trasera, extracción automatizada de tablas de archivos PDF y sistemas de recomendación para identificar socios comerciales. los CUI@IUI: Desafíos teóricos y metodológicos en las interacciones de interfaz de usuario conversacional inteligente El taller reunirá a las comunidades de Interfaz de usuario inteligente (IUI) e Interfaz de usuario conversacional (CUI) para comprender los desafíos teóricos y metodológicos en el diseño, implementación y evaluación de CUI.

La extracción de tablas de documentos PDF e imágenes es una tarea omnipresente en el mundo real. La calidad de extracción perfecta es difícil de lograr con un solo modelo listo para usar debido a la amplia variedad de estilos de tablas, la falta de datos de entrenamiento que representen esta variedad y la ambigüedad y subjetividad inherentes a las definiciones de las tablas. Los investigadores de IBM desarrollaron laboratorio de mesa, un sistema en el que los usuarios personalizan rápidamente modelos de extracción de tablas de alta calidad con algunos ejemplos etiquetados para la colección de documentos del usuario. Dada una colección de documentos de entrada, TableLab primero detecta tablas con estructuras similares al agrupar incrustaciones del modelo de extracción.

Los ataques de puerta trasera son un proceso a través del cual un adversario crea una vulnerabilidad en un modelo de aprendizaje automático al "envenenar" el conjunto de entrenamiento mediante el etiquetado incorrecto selectivo de imágenes que contienen un objeto de puerta trasera. El modelo continúa funcionando bien en los datos de prueba estándar, pero se clasifica erróneamente en las entradas que contienen la puerta trasera elegida por el adversario. Por ejemplo, al colocar un disparador de puerta trasera (por ejemplo, girasoles) en los fondos de las imágenes de gatos en un conjunto de datos de entrenamiento destinado a clasificar gatos y perros, pueden hacer que el modelo clasifique erróneamente a los gatos como perros. Investigadores de IBM presentan el diseño y desarrollo del Juego de puerta trasera, en el que los usuarios pueden interactuar con diferentes clasificadores envenenados y cargar sus propias imágenes que contienen objetos de puerta trasera de una manera atractiva. El diseño, el desarrollo y la implementación combinados de este juego ayudarán a los investigadores de seguridad de IA a estudiar este concepto emergente que ayudará a aumentar la seguridad de los futuros sistemas de IA.

Las asociaciones comerciales pueden ayudar a las empresas a aprovechar las oportunidades que, de otro modo, no podrían facilitar. Encontrar el socio comercial adecuado implica comprender las necesidades de las empresas junto con lo que pueden ofrecer en una colaboración. Los sistemas de recomendación de socios comerciales satisfacen esta necesidad al facilitar el proceso de encontrar los colaboradores adecuados para iniciar una asociación. En un documento de taller, los investigadores de IBM presentan un sistema de recomendación de socios comerciales del mundo real que utiliza una técnica basada en similitudes para generar y explicar sugerencias de socios comerciales. Esta aplicación combina dinámicamente diferentes algoritmos de recomendación y explicaciones para mejorar la experiencia del usuario con la herramienta. Presentan hallazgos preliminares de grupos focales realizados para evaluar la herramienta.

Trabajos aceptados

  • Aumento de la velocidad y precisión del etiquetado de datos a través de una interfaz asistida por IA. liga
  • Facilitar el intercambio de conocimientos de expertos en dominios a científicos de datos para construir modelos NLP. liga
  • Model LineUpper: Compatibilidad con la comparación interactiva de modelos en varios niveles para AutoML. liga
  • El diseño y desarrollo de un juego para estudiar los ataques de envenenamiento de puerta trasera: el juego de puerta trasera. liga
  • ¿La perfección no es necesaria? Asociaciones humano-IA en la traducción de código. liga

Demostraciones aceptadas

  • TableLab: un sistema interactivo de extracción de tablas con aprendizaje profundo adaptativo. liga
  • XNLP: una encuesta viva para la investigación de inteligencia artificial explicable en el procesamiento del lenguaje natural. liga

Talleres

  • HAI-GEN 2021: 2do Taller sobre Co-Creación Humano-IA con Modelos Generativos. liga
  • CUI@IUI: Desafíos teóricos y metodológicos en las interacciones inteligentes de la interfaz de usuario conversacional. liga
  • Transparencia y Explicaciones en Sistemas Inteligentes (TExSS). liga

Papeles del taller

  • Cómo los científicos de datos mejoran la documentación del código generado en portátiles Jupyter. pdf
  • La relación humano-IA en la toma de decisiones: explicación de la IA para ayudar a las personas a justificar sus decisiones. pdf
  • Hacer que la recomendación de socios comerciales sea más efectiva: impactos de combinar recomendadores y explicaciones a través de los comentarios de los usuarios. liga
punto_img

Información más reciente

punto_img