Logotipo de Zephyrnet

La inteligencia artificial es un pasivo

Fecha:

Comentario La inteligencia artificial, es decir, grandes modelos fundamentales que predicen texto y pueden categorizar imágenes y discursos, parece más un pasivo que un activo.

Hasta ahora, el daño en dólares ha sido menor. En 2019, un conductor de Tesla que conducía su vehículo con la ayuda del software Autopilot del fabricante de automóviles se pasó un semáforo en rojo y chocó contra otro vehículo. Los ocupantes murieron y el conductor del Tesla la semana pasada fue ordenado pagar 23,000 dólares en concepto de restitución.

Tesla se emitió casi al mismo tiempo. un recuerdo de dos millones de vehículos para revisar su software Autopilot en respuesta a una investigación de la Administración Nacional de Seguridad del Tráfico en Carreteras de EE. UU. (NHTSA) que encontró que los controles de seguridad del Autopilot eran deficientes.

Veintitrés mil dólares no es mucho para dos vidas, pero las familias implicadas están presentando demandas civiles contra el conductor y contra Tesla, por lo que el coste puede aumentar. Y se dice que hay al menos una docena de demandas que involucra el piloto automático en los EE. UU.

Mientras tanto, en la industria de la salud, UnitedHealthcare está siendo demandado porque el modelo nH Predict AI que adquirió a través de la compra de Navihealth en 2020 supuestamente ha estado negando la atención posaguda necesaria a las personas mayores aseguradas.

Se requieren restricciones

Las empresas que venden modelos y servicios de IA entienden claramente que hay un problema. Se refieren a “barandillas” colocadas alrededor de modelos fundamentales para ayudarlos a mantenerse en su carril, incluso si estos no trabajes muy bien. Precauciones de este tipo serían innecesarias si estos modelos no contuvieran material de abuso sexual infantil y una gran variedad de otros contenidos tóxicos.

Es como si los desarrolladores de IA leyeran el libro del escritor Alex Blechman publicación viral sobre las empresas de tecnología que interpretan la advertencia "No crees el nexo del tormento" como una hoja de ruta del producto y dijeron: "Me parece bien".

Por supuesto, hay referencias literarias más antiguas que se adaptan a la IA, como Frankenstein de Mary Shelley o la Caja de Pandora, una opción particularmente buena dado que los modelos de IA con frecuencia se denominan cajas negras debido a la falta de transparencia sobre el material de capacitación.

Hasta ahora, la inescrutabilidad de los modelos comerciales plagados de contenido dañino no ha afectado demasiado a las empresas. Hay un reciente reclamo por Chris Bakke, fundador y director ejecutivo de Laskie (adquirida este año por una empresa que se hace llamar X), que se convenció a un chatbot de GM utilizado por un concesionario de automóviles de Watsonville, California, para que aceptara vender una Chevy Tahoe 2024. por $ 1 con un poco de ingeniería rápida. Pero no es probable que el concesionario cumpla ese compromiso.

Aún así, el riesgo de confiar en modelos de IA es suficiente para Google, Microsofty Antrópico se han ofrecido a indemnizar a los clientes por reclamaciones de derechos de autor (que son numerosas y en gran medida no resueltas). Eso no es algo que usted haga a menos que exista la posibilidad de responsabilidad.

Regulación

Las autoridades todavía están tratando de determinar cómo se debe evaluar la responsabilidad de la IA. Consideremos cómo la Comisión Europea enmarcó la cuestión mientras trabaja para formular un marco legal viable para la inteligencia artificial:

"Las normas de responsabilidad actuales, en particular las normas nacionales basadas en la culpa, no están adaptadas para manejar las reclamaciones de compensación por daños causados ​​por productos/servicios basados ​​en IA", dijo la Comisión. dijo [PDF] el año pasado. “Bajo tales reglas, las víctimas deben probar una acción/omisión ilícita de una persona que causó el daño. Las características específicas de la IA, incluida la autonomía y la opacidad (el llamado efecto de “caja negra”), hacen que sea difícil o prohibitivamente costoso identificar a la persona responsable y demostrar los requisitos para una reclamación de responsabilidad exitosa”.

Y los legisladores estadounidenses han propuesto un marco bipartidista de IA para “garantizar que las empresas de IA puedan ser consideradas responsables mediante la aplicación de la ley por parte de los órganos de supervisión y los derechos de acción privados cuando sus modelos y sistemas violan la privacidad, violan los derechos civiles o causan de otro modo daños reconocibles”.

No se entusiasme demasiado al ver a ejecutivos de empresas de IA tras las rejas: la participación de los líderes de la industria de la IA en este proceso sugiere que cualquier norma que surja será tan efectiva como otros marcos regulatorios que han sido debilitados por los lobbystas.

Pero el entusiasmo es parte del problema: hay mucho revuelo sobre los loros estocásticos, como se ha llamado a los modelos de IA.

Los modelos de IA tienen valor real en algunos contextos, como señaló la empresa de seguridad Socket, que ha utilizado ChatGPT para bandera de ayuda vulnerabilidades del software. Han hecho maravillas con el reconocimiento de voz, la traducción y el reconocimiento de imágenes, en detrimento de los transcriptores y los acertijos CAPTCHA. Les han recordado a los veteranos de la industria lo divertido que era jugar con ellos. Eliza, uno de los primeros chatbots. Parece que tienen una utilidad real en trabajos de apoyo a la toma de decisiones, siempre que haya un humano involucrado. Y han tomado complejos encantamientos de línea de comando, con sus diversos indicadores y parámetros, y los han convertido en mensajes de texto igualmente complejos que pueden extenderse a lo largo de párrafos.

Pero la automatización que permite la IA tiene un coste. En una reciente artículo Para la revista comercial de ciencia ficción Locus, el autor y activista Cory Doctorow argumentó: “Las empresas de IA están apostando implícitamente a que sus clientes comprarán IA para una automatización de gran trascendencia, despedirán trabajadores y, como resultado, causarán daños físicos, mentales y económicos a sus propios clientes. , eludiendo de alguna manera la responsabilidad por estos daños”.

Doctorow se muestra escéptico sobre la existencia de un mercado significativo para los servicios de IA en empresas de alto valor, debido a los riesgos, y cree que estamos en una situación difícil. burbuja de IA. Señala a GM Cruise como ejemplo y señala que el modelo de negocio de la empresa de vehículos autónomos: en limbo debido a una lesión de peatón y un retiro de servicio – equivale a reemplazar a cada conductor con salarios bajos por 1.5 supervisores remotos más costosos, sin excluir la posibilidad de accidentes y demandas asociadas.

Sobrecarga

Al menos existe cierto potencial para negocios de bajo valor asociados con la IA. Estos implican pagar mensualmente para acceder a una API para chat inexacto, generación algorítmica de imágenes que coopta los estilos de los artistas sin permiso, o generando cientos de sitios de noticias falsas (o Libros) de manera que "inunda la zona”con desinformación.

Parece poco probable que Arena Group reclamo El hecho de que su plataforma de inteligencia artificial pueda reducir el tiempo necesario para crear artículos para publicaciones como Sports Illustrated entre un 80 y un 90 por ciento mejorará la satisfacción del lector, la lealtad a la marca o la calidad del contenido. Pero tal vez generar más artículos de lo humanamente posible en los cientos de títulos de la empresa conduzca a más páginas vistas por parte de bots y a más ingresos por publicidad programática de compradores de publicidad demasiado ingenuos para darse cuenta.

Parte del problema es que los principales promotores de la IA (Amazon, Google, Nvidia y Microsoft) operan plataformas en la nube o venden hardware GPU. Son los vendedores ambulantes de la fiebre del oro de la IA, que sólo quieren vender sus servicios en la nube o su kit de cálculo numérico. Todos estaban de acuerdo con el blockchain express y la supremacía de las criptomonedas hasta que ese engaño desapareció.

Están aún más entusiasmados con la idea de ayudar a las empresas a ejecutar cargas de trabajo de IA, útiles o no. Simplemente están sembrando nubes, con la esperanza de impulsar el negocio hacia sus operaciones de alquiler de procesadores. De manera similar, las nuevas empresas de aprendizaje automático sin infraestructura esperan que las conversaciones entrecortadas sobre tecnología transformadora inflen la valoración de su empresa para recompensar a los primeros inversores.

La moda de la IA también puede atribuirse en parte al esfuerzo perpetuo de la industria tecnológica por responder "¿Qué viene después?" durante un tiempo de estasis prolongada. Apple, Google, Amazon, Meta, Microsofty Nvidia Todos han hecho todo lo posible para evitar una competencia significativa y, desde el inicio de la era de la nube y la telefonía móvil a mediados de la década de 2000, lo han hecho bastante bien. No es que el comportamiento anticompetitivo sea nada nuevo: recordemos la industria de 2010. establecimiento con el Departamento de Justicia de Estados Unidos sobre los acuerdos entre Adobe, Google, Intel, Intuit y Pixar para evitar robarse talentos unos a otros.

Microsoft destacó su integración de IA con Bing, eclipsada durante mucho tiempo por la Búsqueda de Google, afirmando que es "reinventar la búsqueda.” Pero no ha cambiado mucho desde entonces – Bing según se informa no ha logrado arrebatarle cuota de mercado a Google, en un momento en el que existe un sentimiento generalizado de que la Búsqueda de Google (ahora también dotada de IA) ha ido empeorando.

Que venga el 2024

Para saber qué viene después, tendremos que esperar a que el Departamento de Justicia y los reguladores de otras partes del mundo impongan cambios. antimonopolista ejecución y demandas. Porque si bien Google tiene un control sobre la distribución de búsquedas (a través de acuerdos con Apple y otros) y la publicidad digital (a través de su acuerdo con Meta (autorizado en los EE. UU., todavía bajo investigación en Europa y el Reino Unido) y otras actividades que picado el interés del Departamento de Justicia: ni el negocio de las búsquedas ni el de la publicidad parecen receptivos a nuevos rivales, sin importar cuánta salsa de IA se agregue.

La IA es un pasivo no sólo en el sentido financiero sino también en el sentido ético. Promete ahorros salariales –a pesar de siendo extremadamente caro en términos de Entrenamiento y desarrollo y impacto medioambiental – al tiempo que fomenta la indiferencia hacia el trabajo humano, la propiedad intelectual, los resultados nocivos y la precisión de la información. La IA invita a las empresas a eliminar a las personas de la ecuación cuando a menudo agregan valor que no es obvio en un balance.

Hay espacio para que la IA sea realmente útil, pero es necesario implementarla para ayudar a las personas en lugar de deshacerse de ellas. ®

punto_img

Información más reciente

punto_img