Logotipo de Zephyrnet

Una organización sin fines de lucro crea un sitio para rastrear los crecientes contratiempos de la IA

Fecha:

Entrevista Falso imágenes de Donald Trump apoyado por votantes negros inventados, estudiantes de secundaria que crean falsificaciones pornográficas de sus compañeras de clase y el chatbot Gemini de Google fallando para generar imágenes de personas blancas con precisión.

Estos son algunos de los últimos desastres enumerados en el Base de datos de incidentes de IA – un sitio web que controla las diferentes formas en que la tecnología falla.

Lanzada inicialmente como un proyecto bajo los auspicios de Partnership On AI, un grupo que intenta garantizar que la IA beneficie a la sociedad, AI Incident Database es ahora una organización sin fines de lucro financiada por Underwriters Laboratories, la mayor y más antigua (fundada en 1894) independiente. laboratorio de pruebas en los Estados Unidos. Prueba todo tipo de productos, desde muebles hasta ratones de computadora, y hasta ahora su sitio web ha catalogado más de 600 incidentes únicos relacionados con la automatización y la inteligencia artificial.

"Existe una enorme asimetría de información entre los fabricantes de sistemas de IA y los consumidores públicos, y eso no es justo", argumentó Patrick Hall, profesor asistente de la Escuela de Negocios de la Universidad George Washington, que actualmente forma parte de la junta directiva de la base de datos de incidentes de IA. . El dijo El registro: "Necesitamos más transparencia y creemos que es nuestro trabajo simplemente compartir esa información".

La base de datos de incidentes de IA se basa en el programa CVE creado por la organización sin fines de lucro. MITRA, o el Administración Nacional de Seguridad del Transporte por Carreteras Sitio web que informa públicamente sobre vulnerabilidades de seguridad cibernética y accidentes de vehículos. "Cada vez que hay un accidente aéreo, un accidente de tren o un gran incidente de seguridad cibernética, se ha convertido en una práctica común durante décadas registrar lo que sucedió para que podamos tratar de entender qué salió mal y luego no repetirlo".

Actualmente, el sitio web está administrado por unas diez personas, además de un puñado de voluntarios y contratistas que revisan y publican en línea incidentes relacionados con la IA. Heather Frase, investigadora principal de Georgetown's Centro de Seguridad y Tecnología Emergente centrado en la evaluación de la IA y director de la base de datos de incidentes de IA, afirmó que el sitio web es único porque se centra en los impactos del mundo real de los riesgos y daños de la IA, no solo en las vulnerabilidades y errores del software.

Actualmente, la organización recopila incidentes de la cobertura de los medios y revisa los problemas informados por las personas en Twitter. La base de datos de incidentes de IA registró 250 incidentes únicos antes del lanzamiento de ChatGPT en noviembre de 2022 y ahora enumera más de 600 incidentes únicos.

El seguimiento de los problemas de la IA a lo largo del tiempo revela tendencias interesantes y podría permitir a las personas comprender los daños reales y actuales de la tecnología.

El Hall de la Universidad George Washington reveló que aproximadamente la mitad de los informes de la base de datos están relacionados con la IA generativa. Algunas de ellas son “cosas divertidas y tontas” como productos poco fiables vendidos en Amazon con el título: "No puedo cumplir con esa solicitud", una señal clara de que el vendedor utilizó un modelo de lenguaje grande para escribir descripciones, u otros casos de spam generado por IA. Pero algunos son “realmente un poco deprimentes y serios”, como un robotaxi de crucero que atropelló y arrastró a una mujer bajo sus ruedas en un accidente en San Francisco.

“La IA es más que nada un salvaje oeste en este momento, y la actitud es ir rápido y romper cosas”, lamentó. No está claro cómo la tecnología está dando forma a la sociedad, y el equipo espera que la base de datos de incidentes de IA pueda proporcionar información sobre las formas en que se utiliza indebidamente y resaltar las consecuencias no deseadas, con la esperanza de que los desarrolladores y los formuladores de políticas estén mejor informados para que puedan mejorar sus modelos o regular. los riesgos más acuciantes.

“Hay mucho revuelo. La gente habla de riesgo existencial. Estoy seguro de que la IA puede plantear riesgos muy graves para la civilización humana, pero para mí está claro que algunos de estos riesgos más reales, como muchas lesiones asociadas con los vehículos autónomos o, ya sabes, perpetuar el sesgo a través de algoritmos que se utilizan en financiación al consumo o empleo. Eso es lo que vemos”.

“Sé que nos estamos perdiendo mucho, ¿verdad? No todo es reportado o capturado por los medios. Muchas veces es posible que las personas ni siquiera se den cuenta de que el daño que están experimentando proviene de una IA”, observó Frase. “Espero que el daño físico aumente mucho. Estamos viendo daños [principalmente] psicológicos y otros daños intangibles provenientes de grandes modelos de lenguaje, pero una vez que tengamos la robótica generativa, creo que el daño físico aumentará mucho”.

A Frase le preocupan sobre todo las formas en que la IA podría erosionar los derechos humanos y las libertades civiles. Ella cree que la recopilación de incidentes de IA mostrará si las políticas han hecho que la tecnología sea más segura con el tiempo.

"Hay que medir las cosas para arreglarlas", añadió Hall.

La organización siempre está buscando voluntarios y actualmente está enfocada en capturar más incidentes y aumentar la conciencia. Frase enfatizó que los miembros del grupo no son luditas sobre la IA: “Probablemente parezcamos bastante anti-IA, pero no lo somos. De hecho queremos usarlo. Sólo queremos las cosas buenas”.

Hall estuvo de acuerdo. "Para que la tecnología siga avanzando, alguien sólo tiene que hacer el trabajo para hacerla más segura", dijo. ®

punto_img

Información más reciente

punto_img