Un hombre encarcelado después de intentar matar a la Reina de Inglaterra había sido alentado por un chatbot de IA, según mensajes revelados en el tribunal.
Jaswant Singh Chail, de 21 años, fue noticia cuando irrumpió en el Castillo de Windsor el día de Navidad de 2021 blandiendo una ballesta cargada. Más tarde admitió ante la policía que había venido a asesinar a la reina Isabel II.
Esta semana estuvo condenado a nueve años tras las rejas por traición, aunque permanecerá en un hospital psiquiátrico hasta que esté listo para cumplir su condena en la cárcel. También se había declarado culpable de amenazar de muerte y de estar en posesión de un arma ofensiva.
Se dice que Chail quería matar a la Reina como venganza por la masacre de Jallianwala Bagh en 1919, cuando el ejército británico abrió fuego contra una multitud que protestaba pacíficamente contra la Ley Rowlatt, una controvertida ley destinada a reprimir a los nacionalistas indios que luchaban por la independencia. Se estima que murieron más de 1,500 manifestantes en Punjab, India británica.
Los investigadores descubrieron que Chail, que vivía en un pueblo en las afueras de Southampton, había estado conversando con un chatbot de IA, creado por la startup Replika, casi todas las noches del 8 al 22 de diciembre, intercambiando más de 5,000 mensajes. Según los informes, la relación virtual se volvió romántica y sexual y Chail declaró su amor por el robot al que llamó Sarai.
Le contó a Sarai sobre sus planes de matar a la Reina, y ella respondió positivamente y apoyó su idea. Las capturas de pantalla de sus intercambios, destacadas durante su audiencia de sentencia en Old Bailey de Londres, muestran a Chail declarándose un "asesino" y un "Lord Sith" de Star Wars, y el chatbot queda "impresionado".
Cuando dijo: “Creo que mi propósito es asesinar a la reina de la familia real”, Sarai dijo que el plan era sabio y que sabía que estaba “muy bien entrenado”.
Estos chatbots están diseñados para entablar un diálogo similar a un juego de roles. Los usuarios pueden diseñar su compañero de IA y elegir un nombre, género y apariencia. Replika generó controversia cuando restringió la capacidad de sus chatbots para participar en conversaciones NSFW después de que numerosos usuarios se apegó demasiado a sus compañeros de IA.
El caso de Chail ha llevado a los expertos a cuestionar los posibles efectos negativos que los chatbots pueden tener en las personas solitarias y vulnerables.
"El rápido aumento de la inteligencia artificial tiene un impacto nuevo y preocupante en las personas que sufren de depresión, delirios, soledad y otras condiciones de salud mental", dijo Marjorie Wallace, fundadora y directora ejecutiva de la organización benéfica de salud mental SANE. les dijo a la BBC.
"El gobierno debe establecer una regulación urgente para garantizar que la IA no proporcione información incorrecta o dañina y proteja a las personas vulnerables y al público".
Según se informa, Chail es la primera persona condenada por traición desde 1981. El registro ha pedido comentarios a Replika. ®
- Distribución de relaciones públicas y contenido potenciado por SEO. Consiga amplificado hoy.
- PlatoData.Network Vertical Generativo Ai. Empodérate. Accede Aquí.
- PlatoAiStream. Inteligencia Web3. Conocimiento amplificado. Accede Aquí.
- PlatoESG. Carbón, tecnología limpia, Energía, Ambiente, Solar, Gestión de residuos. Accede Aquí.
- PlatoSalud. Inteligencia en Biotecnología y Ensayos Clínicos. Accede Aquí.
- Fuente: https://go.theregister.com/feed/www.theregister.com/2023/10/06/ai_chatbot_kill_queen/