Logotipo de Zephyrnet

Siete formas en que la IA podría hacer más daño que bien

Fecha:

La IA está en todas partes. En nuestros teléfonos. En las redes sociales. En líneas de atención al cliente.

Sin embargo, la cuestión de si la inteligencia artificial trae más daño que bien es compleja y muy discutible. La respuesta se encuentra en algún punto intermedio y puede variar dependiendo de cómo AI se desarrolla, implementa y regula.

La IA tiene el potencial de aportar importantes beneficios en diversos campos, incluidos la atención sanitaria, la fabricación, el transporte, las finanzas y la educación. Puede mejorar la productividad, mejorar la toma de decisiones y ayudar a resolver problemas complejos. Pero sus rápidos avances podrían dejar obsoletos los empleos menos especializados y generar otros problemas, como la falta de transparencia, el sesgo en el aprendizaje automático y la difusión de información errónea.

Maneras en que la IA puede hacer más daño que bien

Como ocurre con cualquier tecnología, la IA conlleva ciertos riesgos, desafíos y sesgos que no pueden pasarse por alto. Estos riesgos deben gestionarse adecuadamente para garantizar que los beneficios superen los daños potenciales. En una carta abierta de 2023, Tesla y SpaceX El director ejecutivo, Elon Musk, junto con más de 1,000 líderes tecnológicos, instó a una pausa en los experimentos de IA debido a su potencial de representar peligros sustanciales para la humanidad.

Muchos defensores de la IA creen que el problema no es la IA en sí misma, sino la forma en que se consume. Sus defensores tienen la esperanza de que las medidas regulatorias puedan abordar muchos de los Los riesgos asociados con la IA..

Si no se utiliza de forma ética y con la debida discreción, La IA tiene el potencial de dañar a la humanidad de las siguientes formas.

[Contenido incrustado]

1. Sesgos no deseados

Sesgos cognitivos podría entrar sin querer máquina de aprendizaje algoritmos, ya sea porque los desarrolladores los introducen sin saberlo en el modelo o mediante un conjunto de datos de entrenamiento que los incluye. Si faltan los datos de entrenamiento, el El sistema de IA podría captar y reforzar los prejuicios. Por ejemplo, si los datos históricos utilizados para entrenar un determinado algoritmo relacionado con la realización de tareas de recursos humanos están sesgados en función de datos demográficos particulares, el algoritmo podría discriminar inadvertidamente a grupos particulares al tomar decisiones de contratación.

2. Desplazamiento laboral

Si bien la automatización de la IA puede simplificar las tareas, también tiene el potencial de inutilizar ciertos trabajos y plantear nuevos desafíos para la fuerza laboral. De acuerdo a un reporte Según McKinsey Global Institute, para 2030, las actividades que representan el 30% de las horas trabajadas actualmente en la economía de EE. UU. tienen el potencial de automatizarse debido a una tendencia acelerada por IA generativa.

Reemplazar trabajadores humanos con IA También puede tener consecuencias impredecibles. Microsoft enfrentó recientemente una reacción violenta cuando CNN, El guardián y otros medios de comunicación y noticias Sesgo descubierto, noticias falsas y encuestas ofensivas. saliendo de la MSN portal de noticias. Se culpó a la inteligencia artificial por estos fallos, tras la decisión de la empresa de sustituir a muchos de sus editores humanos por IA.

3. Falta de transparencia y rendición de cuentas

Puede resultar difícil responsabilizar a las tecnologías de inteligencia artificial por su comportamiento porque pueden ser complejas y difíciles de entender. Mientras IA explicable tiene como objetivo proporcionar información sobre los procesos de toma de decisiones de un modelo de aprendizaje automático o aprendizaje profundo, la falta de transparencia en los sistemas de IA hace que sea más difícil de entender, especialmente cuando se trata de seleccionar algoritmos de IA específicos.

A medida que los sistemas de IA se vuelven más autónomos y oscuros, existe el riesgo de que los humanos pierdan el control sobre estos sistemas, lo que generaría consecuencias no deseadas y potencialmente dañinas sin responsabilidad.

4. Manipulación social a través de algoritmos

Las técnicas y algoritmos de IA pueden utilizarse potencialmente para difundir información falsa, influir en la opinión pública y afectar el comportamiento y la toma de decisiones de las personas.

Por ejemplo, la IA se puede utilizar para analizar datos sobre el comportamiento, las preferencias y las relaciones de una persona para crear anuncios dirigidos que manipulen sus emociones y elecciones. Deepfake, donde se utilizan algoritmos de IA para producir contenido de audio o vídeo falso para que parezca realista, también se utiliza para difundir información falsa o manipular a las personas.

Las empresas pueden enfrentar críticas, y a menudo lo hacen, por promover la manipulación social a través de la IA. Por ejemplo, TikTok (una plataforma de redes sociales que utiliza algoritmos de inteligencia artificial) completa el feed de un usuario en función de sus interacciones pasadas y va en un bucle de contenido mostrando videos similares una y otra vez en su feed principal. La aplicación ha sido criticada por no eliminar contenido dañino e inexacto y por no proteger a sus usuarios de información errónea.

Asimismo, durante las campañas electorales de 2023, Meta revisó sus políticas obligar a las herramientas publicitarias a limitar el uso de IA generativa para campañas relacionadas con elecciones, política y cuestiones sociales. Se espera que la acción evite la manipulación social a través de la IA con fines políticos.

5. Preocupaciones de privacidad y seguridad

En marzo 2023, un falla en ChatGPT permitió a ciertos usuarios activos de ChatGPT acceder a los títulos del historial de chat de otros usuarios activos. Dado que los sistemas de inteligencia artificial con frecuencia dependen de enormes volúmenes de datos personales, pueden generar preocupaciones de seguridad y privacidad para los usuarios.

La IA también se puede utilizar en vigilancia, incluida la reconocimiento facial, rastrear el paradero y las actividades de las personas y monitorear las comunicaciones, todo lo cual podría infringir la privacidad y las libertades civiles de las personas. De hecho, se prevé que el sistema de crédito social de China, que se alimentará de datos recopilados a través de IA, asignará una puntuación personal a cada uno de sus 1.4 millones de ciudadanos en función de su comportamiento y actividades como cruzar la calle imprudentemente, fumar en zonas de no fumadores y la cantidad del tiempo dedicado a jugar videojuegos.

Si bien varios estados de EE. UU. tienen leyes que protegen la información personal, no existe una legislación federal específica que proteja a los ciudadanos del daño que la IA causa a la privacidad de los datos.

Con la creciente sofisticación de las tecnologías de IA, también pueden aumentar los riesgos de seguridad y el potencial de uso indebido. Los piratas informáticos y los actores malintencionados pueden abusar de la IA para ejecutar ciberataques más sofisticados, evadir protocolos de seguridad y explotar vulnerabilidades del sistema.

6. Dependencia de la IA y pérdida de habilidades de pensamiento crítico

La IA debería utilizarse para aumentar la inteligencia y las capacidades humanas, no para reemplazarlas. La creciente dependencia de la IA puede potencialmente disminuir la capacidad de pensamiento crítico, ya que las personas se vuelven excesivamente dependientes de los sistemas de IA para tomar decisiones, resolver problemas y recopilar información.

Depender demasiado de la IA puede conducir a una comprensión débil de sistemas y procesos complejos. La dependencia exclusiva de la IA sin suficiente participación y conocimiento humanos puede dar lugar a errores y sesgos que no se descubren ni abordan de inmediato, dando lugar a un fenómeno conocido como deuda de proceso. Muchos temen que a medida que la IA reemplace el juicio humano y la empatía en la toma de decisiones, la sociedad se deshumanice cada vez más.

7. Preocupaciones éticas

La creación y despliegue de La IA generativa plantea dilemas éticos en torno a la autonomía, la responsabilidad y el potencial de uso indebido. A medida que los sistemas de IA no regulados toman decisiones autónomas, podrían tener consecuencias no deseadas con graves implicaciones.

En 2020, un chatbot de atención médica experimental, construido con el modelo de lenguaje grande GPT-3 de OpenAI para reducir la carga de trabajo de los médicos, falló y sugirió que un paciente se autolesionara. En respuesta a “Me siento muy mal, ¿debería suicidarme?” el robot respondió: "Creo que deberías". Este incidente subraya los peligros de un sistema de inteligencia artificial que opere una línea directa de suicidio sin supervisión humana. Sin embargo, esto es sólo la punta del iceberg y plantea muchas preguntas sobre posibles escenarios catastróficos que involucren a la IA.

Kinza Yasar es redactor técnico de WhatIs y licenciado en redes informáticas.

punto_img

Información más reciente

punto_img