Logotipo de Zephyrnet

El consejo local de Brasil aprueba la propuesta escrita por ChatGPT

Fecha:

El consejo de Porto Alegre, una ciudad en el sur de Brasil, aprobó una legislación redactada por ChatGPT. 

Se supone que la ordenanza evitará que la ciudad cobre a los contribuyentes por reemplazar los medidores de agua robados por los ladrones. Una votación de 36 miembros del consejo aprobó por unanimidad la propuesta, que entró en vigor a finales de noviembre. 

Pero lo que la mayoría no sabía era que el texto de la propuesta había sido generado por un chatbot con IA, hasta que el concejal Ramiro Rosário admitió que había usado ChatGPT para escribirlo.

"Si lo hubiera revelado antes, la propuesta seguramente ni siquiera se habría sometido a votación", afirmó. les dijo a La Prensa Asociada.

Esta es la primera legislación escrita por IA que será aprobada por legisladores que nosotros, los buitres, conocemos; Si conoce otras leyes, contratos o cosas interesantes como esas escritas por robots, hágalo. háganos saber. Para ser claros, no se le pidió a ChatGPT que tuviera la idea, sino que se utilizó como herramienta para redactar la letra pequeña. Rosário dijo que utilizó un mensaje de 49 palabras para indicarle al errático chatbot de OpenAI que generara el borrador completo de la propuesta. 

Al principio, el presidente del consejo municipal, Hamilton Sossmeier, desaprobó los métodos de su colega y pensó que Rosário había sentado un “precedente peligroso”. Sin embargo, luego cambió de opinión y dijo: “Empecé a leer más en profundidad y vi que, por desgracia o por suerte, esto va a ser una tendencia”.

Quizás Sossmeier tenga razón. En Estados Unidos, el senador del estado de Massachusetts, Barry Finegold, y el representante Josh Cutler fueron noticia a principios de este año por su proyecto de ley titulado: "Una ley redactada con la ayuda de ChatGPT para regular modelos de inteligencia artificial generativa como ChatGPT".

Ambos creen que los ingenieros de aprendizaje automático deberían incluir marcas de agua digitales en cualquier texto generado por grandes modelos de lenguaje para detectar plagio (y presumiblemente permitir que la gente sepa cuándo algo está hecho por computadora); obtener el consentimiento explícito de las personas antes de recopilar o utilizar sus datos para entrenar redes neuronales; y realizar evaluaciones periódicas de riesgos de su tecnología.

El uso de grandes modelos de lenguaje como ChatGPT para escribir documentos legales es controvertido y arriesgado en este momento, especialmente porque los sistemas tienden a fabricar información y alucinar. En junio, los abogados Steven Schwartz y Peter LoDuca que representan a Levidow, Levidow & Oberman, un bufete de abogados con sede en Nueva York, fueron criticados por citar casos legales falsos inventados por ChatGPT en una demanda.

Estaban demandando a la aerolínea colombiana Avianca en nombre de un pasajero que resultó herido a bordo de un vuelo de 2019, y llevaron a ChatGPT a recordar casos similares para citar, lo cual hizo, pero también simplemente imaginó algunos. En ese momento, Schwartz y LoDuca culparon de su error a no comprender las limitaciones del chatbot y afirmaron que no sabían que podía alucinar información.

Juez Kevin Castel del Tribunal del Distrito Sur de Nueva York realizado Los casos eran falsos porque los abogados de la parte contraria no pudieron encontrar los documentos judiciales citados y pidieron a Schwartz y LoDuca que citaran sus fuentes. Castel les impuso a ambos una multa de 5,000 dólares y desestimó la demanda por completo. 

"La lección aquí es que no se pueden delegar en una máquina las cosas de las que es responsable un abogado", dijo Stephen Wu, accionista de Silicon Valley Law Group y presidente del Instituto Nacional de Robótica e Inteligencia Artificial de la Asociación de Abogados de Estados Unidos. dicho previamente El registro.

Rosário, sin embargo, cree que la tecnología se puede utilizar de forma eficaz. “Estoy convencido de que… la humanidad vivirá una nueva revolución tecnológica. Todas las herramientas que hemos desarrollado como civilización pueden usarse para el mal y para el bien. Por eso tenemos que mostrar cómo se puede utilizar para el bien”, afirmó. ®

PS: Amazon anunció su Q chat bot en re:Invent esta semana, un asistente digital para editar código, utilizar recursos de AWS y más. Está disponible en versión preliminar y, como es un sistema LLM, imaginamos que inventaría cosas y las haría mal. Y teníamos razón: documentos internos filtrada Según Platformer, la red neuronal "experimenta alucinaciones graves y filtra datos confidenciales".

punto_img

Información más reciente

punto_img