Logotipo de Zephyrnet

Será mejor que estés preparado para respaldar las promesas de tu chatbot de IA

Fecha:

Opinión Sigo escuchando sobre empresas que quieren despedir a los empleados de sus centros de llamadas y al personal de primera línea lo más rápido posible y reemplazarlos con IA. Son sinceros al respecto.

El director ejecutivo de Meta, Mark Zuckerberg, dijo recientemente que la empresa detrás Facebook estaba despidiendo empleados “Para que podamos invertir en estas visiones ambiciosas y a largo plazo en torno a la IA”. Puede que sea una medida realmente tonta. Pregúntele a Air Canada.

Air Canada descubrió recientemente por las malas que cuando tu chatbot de IA hace una promesa a un cliente, la empresa tiene que cumplirlo. ¡Vaya!

En el caso de Air Canada, un asistente virtual le dijo a Jake Moffatt que podía obtener un descuento por duelo en su vuelo de Vancouver a Toronto ya comprado debido a la muerte de su abuela. El coste total del viaje sin descuento: CA$1,630.36. Costo con descuento: $760. La diferencia entre no ser mucho puede ser una pequeña cantidad de dinero para una aerolínea internacional, pero es dinero real para la gente común y corriente. 

El asistente virtual le dijo que si compraba un billete a precio normal, tendría hasta 90 días para reclamar un descuento por duelo. Un representante real de Air Canada confirmó que podría obtener el descuento por duelo.

Cuando Moffatt presentó posteriormente su solicitud de reembolso con la documentación necesaria, Air Canada se negó a pagar. Eso no funcionó bien para la empresa.

Moffatt llevó la empresa a un tribunal de reclamos menores, alegando que Air Canada fue negligente y había tergiversado su política. Air Canada respondió, en efecto, que “El chatbot es una entidad jurídica independiente que es responsable de sus propias acciones."

¡No lo creo!

El tribunal estuvo de acuerdo. “Esta es una presentación notable. Si bien un chatbot tiene un componente interactivo, sigue siendo solo una parte del sitio web de Air Canada. Debería ser obvio para Air Canada que es responsable de toda la información contenida en su sitio web. No importa si la información proviene de una página estática o de un chatbot”.

La cotización monetaria para que otras empresas presten atención a seguir adelante con sus planes de IA es: "Creo que Air Canada no tuvo el cuidado razonable de garantizar que su chatbot fuera preciso".

Este es un caso y los daños fueron mínimos. Se ordenó a Air Canada que devolviera a Moffatt el reembolso que se le debía. Sin embargo, las empresas deben saber que son tan responsables de que sus chatbots de IA sean precisos como lo son de sus empleados de carne y hueso. Es así de simple.

¿Y adivina qué? Los LLM de IA a menudo no son correctos. Ni siquiera están cerca. Según un estudio realizado por las organizaciones sin fines de lucro AI Forensics y AlgorithmWatch, un tercio de las respuestas de Microsoft Copilot contenían errores fácticos. ¡Son muchas demandas potenciales!

Como dijo Avivah Litan, distinguido vicepresidente analista de Gartner centrado en IA, si permite que sus chatbots de IA sean su primera línea de servicio al cliente, su empresa “terminará gastando más en honorarios legales y multas de lo que ganan con el aumento de la productividad”.

El abogado Steven A. Schwartz sabe todo sobre eso. Confió en ChatGPT para encontrar casos anteriores que respaldaran su caso. Y Chat GPT encontró casos anteriores bastante correctos. Sólo hubo un pequeño problema. Seis de los casos que citó no existían. Al juez federal de distrito P. Kevin Castel no le hizo gracia. El juez le multaron con 5,000 dólares, pero podría haber sido mucho peor. Es poco probable que cualquiera que cometa un error similar en el futuro se enfrente a tal indulgencia.

La precisión por sí sola no es el único problema. Los prejuicios incorporados en sus modelos de lenguaje grande (LLM) también pueden afectarlo. El iTutorGrupo puedo contarte todo sobre eso. Este La empresa perdió una demanda de 365,000 dólares ante la Comisión de Igualdad de Oportunidades en el Empleo (EEOC) de EE. UU. porque el software de reclutamiento impulsado por inteligencia artificial rechazó automáticamente a las postulantes mujeres de 55 años o más y a los hombres de 60 años o más.

Hasta la fecha, el el error más grande causado por la dependencia de la IA fue el error garrafal de la empresa estadounidense de bienes raíces residenciales Zillow en los precios de bienes raíces.

En noviembre de 2021, Zillow puso fin a su programa Zillow Offers. Este programa de inteligencia artificial asesoró a la empresa sobre cómo hacer ofertas en efectivo para viviendas que luego serían renovadas y remodeladas. Sin embargo, con una tasa de error media del 1.9 por ciento y tasas de error de hasta el 6.9 por ciento, la empresa perdió mucho dinero. ¿Cuánto cuesta? Pruebe con una amortización de inventario de 304 millones de dólares sólo en un trimestre. Ah, y Zillow despidió al 25 por ciento de su fuerza laboral. 

No soy ludita, pero la simple verdad es que la IA aún no es lo suficientemente confiable para los negocios. Es una herramienta útil, pero no reemplaza a los trabajadores, ya sean profesionales o personal de la mesa de ayuda. Dentro de unos años, será una historia diferente. Hoy en día, simplemente se está buscando problemas si confía en la IA para mejorar sus resultados. ®

punto_img

Información más reciente

punto_img