Logotipo de Zephyrnet

ChatGPT se rinde ante el engaño y genera claves de activación de software para Windows

Fecha:

El investigador de Inteligencia artificial general (AGI, por sus siglas en inglés), Eliezer Yudkowsky, dice que la innovación de la IA es mucho peor que la bomba nuclear y podría conducir a la muerte de todos en la tierra. Pero eso puede no ser del todo exacto, según algunos de sus pares, quienes creen que los riesgos están exagerados.

Yudkowsky habló a raíz de un carta abierta firmado recientemente por varias luminarias, incluido el cofundador de Apple, Steve Wozniak, el multimillonario Elon Musk, Gary Marcus y otros, que piden una moratoria de seis meses en la capacitación en IA de grandes idiomas en el mundo.

“Si alguien construye una IA demasiado poderosa, en las condiciones actuales, espero que todos los miembros de la especie humana y toda la vida biológica en la Tierra mueran poco después”, advirtió en un artículo reciente. publicado por la revista Time.

Lea también: ¿Problemas en ChatGPT Paradise? La startup ejecutada por IA no logra cumplir los objetivos financieros

Apagando la IA

Yudkowsky es un informático estadounidense mejor conocido por popularizar la idea de IA amigable, un término que se refiere específicamente a las IA que producen “resultados buenos y beneficiosos en lugar de perjudiciales”. Pasó 20 años investigando AGI, básicamente el estado en el que la IA podía razonar como los humanos, y es considerado un pionero en el campo.

En su artículo, Yudkowsky argumenta que los riesgos de la inteligencia artificial no se pueden gestionar solo a través de la regulación. Él cree que el desarrollo de la IA representa una amenaza existencial para la humanidad y que la única forma de lidiar con la amenaza es cerrarla por completo.

“Apague todos los grandes clústeres de GPU (las grandes granjas de computadoras donde se refinan las IA más poderosas). Cierra todas las carreras de entrenamiento grandes”, sugirió.

“Poner un límite a la cantidad de poder de cómputo que cualquiera puede usar para entrenar un sistema de IA…” Ningún gobierno o ejército en el mundo debería estar exento de cumplir con estos estándares exigentes, dice el cofundador del Instituto de Investigación de Inteligencia de Máquinas.

Uno de los problemas centrales que Yudkowsky planteó es lo que describió como el "problema de alineación". Esencialmente, el problema se refiere a la dificultad de garantizar que las metas y objetivos de un sistema de IA estén alineados con los de sus creadores humanos.

Los críticos dicen que el peligro es que un sistema de IA pueda desarrollar sus propias metas y objetivos que entren en conflicto con los de sus creadores, lo que lleva a resultados desastrosos. Desarrollar IA sin resolver el problema de alineación es similar a construir un rascacielos sobre cimientos inestables, dijo.

Candente debate nuclear

Yudkowsky teme los peligros no deseados del rápido desarrollo de tecnologías súper inteligentes sin las medidas de seguridad adecuadas. Propone la creación de organizaciones e instituciones especializadas dedicadas a abordar estos problemas de seguridad.

Sin embargo, a pesar de la teórico de la decisiónEl argumento de s no es nuevo. Muchos expertos llevan años advirtiendo sobre los peligros de la IA. En 2018, un reporte por RAND Corporation advirtió que el desarrollo de la IA podría aumentar el riesgo de una guerra nuclear.

El informe que decía que la integración de la IA, el aprendizaje automático y el análisis de big data podría mejorar drásticamente la capacidad de los militares para localizar, rastrear, apuntar y destruir las fuerzas de disuasión nuclear de un rival.

Otros también se han metido en el debate. Para el exlíder de productos de Google, Bilawal Sidhu, el debate sobre la IA puede tratarse como algo nuclear o puede dejarse abierto. Él dice que una IA de código abierto permitiría a los buenos actores vigilar a los malos, lo que minimiza el daño que haría la tecnología.

En un serie de tweets, Sidhu comparó la potencia de la tecnología de IA con una nuclear mejorada, agregando que los datos eran el nuevo petróleo crudo en un mundo digitalizado.

“La era de los grandes datos digitalizó todo, creando tesoros ocultos abiertos y cerrados. Los datos son el nuevo petróleo y, con la IA, extraer este recurso crudo es más fácil que nunca”, escribió.

“A diferencia del pasado, donde el gobierno solía ejercer el poder exclusivamente, esta influencia también la tienen los individuos. Ejercer este poder no se limita a los grandes gigantes tecnológicos o a los estados-nación. Cualquiera puede usarlo para bien o para mal. La gente ya ha demostrado capacidades salvajes”.

Más capacidades de IA

Ahora, incluso la geolocalización, anteriormente reservada a las sofisticadas agencias gubernamentales de espionaje, puede ser realizada por individuos. Sidhu citó a un artista de inteligencia artificial que geolocalizó a los principales influencers usando Instagram y transmisiones de cámaras disponibles públicamente, como un ejemplo.

Lo que se conoce como “análisis del patrón de vida” ha sido tradicionalmente relegado a la comunidad de inteligencia, pero puede ser realizado por individuos. Cuando se agrega a la mezcla un modelo de lenguaje grande mucho más competente como GPT-4, la última versión de la familia GPT, el potencial de tales individuos se vuelve aterrador, dice.

Debido a esta perspectiva aterradora, Sidhu dice que no es de extrañar OpenAI, la empresa que creó la tecnología GPT, ha sido selectiva en la apertura de la multimodalidad. Combinado con "algoritmos de detección y seguimiento" en los medios y la capacidad de "razonamiento" basada en enlaces neuronales de GPT-4 modelos de clase en el análisis de feeds sociales, nace un poderoso hermano mayor.

Pidió una mayor regulación del tipo de modelos, como la generación de imágenes, e insistió en que esto tiene muchas menos desventajas que los modelos de propósito general como GPT-4.

“Pero tampoco son exactamente arcoíris y sol. VFX y Photoshop siempre han existido, pero los modelos de imágenes permiten la desinformación a una escala insondable”, tuiteó.

Sidhu citó cómo sus "videos VFX" claramente etiquetados engañaron a millones. Dijo que era inimaginable lo que haría tal tecnología en manos de lo que llamó "malos actores".

En una entrevista con Newsweek, el exsecretario de Estado de EE. UU., Henry Kissinger, argumentó que la IA es “tan importante” pero “menos predecible” que las armas nucleares. Kissinger cree que los riesgos de la IA se pueden gestionar mediante la cooperación y la regulación internacionales.

punto_img

Información más reciente

punto_img