Michael Cohen, ex abogado de Donald Trump, ha sido noticia después de utilizar por error Google Bard, un chatbot de inteligencia artificial, para investigaciones legales..
Este paso en falso resultó en la enviarlo a consideración de citas legales incorrectas en documentos judiciales, arrojando luz sobre los desafíos y riesgos emergentes del uso de inteligencia artificial en procedimientos legales.
El dilema de la IA en la investigación jurídica
El problema salió a la luz cuando Cohen, preparándose para su papel como testigo contra Trump en los próximos juicios, envió citaciones legales generadas por Google Bard a su abogado, David Schwartz. Cohen, que ya no ejerce activamente la abogacía, malinterpretó a Google Bard como un potente motor de búsqueda en lugar de reconocerlo como un servicio de inteligencia artificial generativa similar a Chat-GPT. En consecuencia, el recurso presentado contenía citaciones inválidas.
Hace unas semanas, un juez federal notó que los abogados de Michael Cohen estaban usando casos falsos y exigió una explicación.
Resulta que Cohen estaba usando IA para ayudar a redactar sus propias mociones y aparentemente estaba engañando a su abogado sobre el origen de esos casos. pic.twitter.com/yGyX6N8VHC
- Techno Niebla (@Techno_Fog) 29 de diciembre de 2023
Este incidente plantea preocupaciones sobre la creciente dependencia sobre IA para la investigación jurídica. Subraya la necesidad de una comprensión más profunda de las tecnologías de IA entre los profesionales del derecho y destaca la importancia crítica de verificar la precisión de la información generada por IA. En el caso de Cohen, la responsabilidad se extendió a su abogado, Schwartz, quien debería haber verificado dos veces las citaciones antes de incluirlas en los expedientes legales.
Errores inducidos por la IA en casos legales
El percance de Cohen no es un hecho aislado, sino parte de una tendencia creciente de errores relacionados con la IA en el sector legal. En un incidente separado, Steven Schwartz, abogado del bufete de abogados Levidow, Levidow & Oberman de Nueva York, enfrentó críticas judiciales por incorporar citaciones judiciales inexactas generadas por IA en su trabajo legal. A pesar de alegar su inexperiencia con ChatGPT, el juez reprendido por las inexactitudes en sus presentaciones.
Bien, Steven Schwartz adjunta su transcripción de ChatGPT y yo simplemente. En realidad. Este es su argumento.https://t.co/sQXihPcwl0
— Courtney Milán 🦖 (@courtneymilan) Sábado, Junio 7, 2023
Para ilustrar aún más esta tendencia, el abogado Steven Schwartz, en una demanda contra Avianca Airlines, utilizó ChatGPT para investigaciones legales. Esto llevó al descubrimiento de errores fácticos e inconsistencias en la documentación del caso por parte del juez que preside, quien describió algunos de los casos presentados como “falsos”, presentando casos inexistentes y números de expediente confusos.
Papel de la supervisión humana en el uso de la IA
Estos incidentes subrayan un aspecto crucial de la integración de la IA en las fuerzas laborales profesionales, especialmente en campos tan críticos como el derecho. Si bien las herramientas de inteligencia artificial como ChatGPT tienen el potencial de revolucionar los procesos analíticos y de investigación, no están exentas de fallas. Al adoptar estas herramientas, la profesión jurídica debe hacerlo con cautela, garantizando que la experiencia y el juicio humanos sigan siendo primordiales en interpretar y aplicar información generada por IA.
Los abogados e investigadores jurídicos deberían ver la IA como una herramienta de apoyo que mejora, pero no reemplaza, la necesidad de una investigación y verificación exhaustivas dirigidas por humanos. A medida que la IA avanza, se espera que se amplíe su papel en diversas industrias, incluida la jurídica. Sin embargo, estos ejemplos sirven como advertencia sobre la importancia de un enfoque equilibrado, en el que la eficiencia de la IA se utilice sin socavar la precisión y la integridad del trabajo profesional.
Descargué un contrato de Ethereum en vivo en GPT-4.
En un instante, destacó una serie de vulnerabilidades de seguridad y señaló áreas superficiales donde se podría explotar el contrato. Luego verificó una forma específica en que podía explotar el contrato. pic.twitter.com/its5puakUW
-Conor (@jconorgrogan) Marzo 14, 2023
La integración de la IA en la investigación jurídica presenta tanto oportunidades como desafíos. Como lo demuestran estos incidentes, existe una necesidad crítica de que los profesionales del derecho desarrollen una comprensión más profunda de las tecnologías de inteligencia artificial y sus limitaciones. Esto incluye reconocer que las herramientas de IA, si bien son poderosas, requieren una atención cuidadosa. vigilancia y aún necesitamos replicar completamente el juicio matizado y la experiencia de un profesional jurídico humano.
A medida que la tecnología de IA continúa evolucionando, su incorporación al campo legal debe abordarse con entusiasmo por su potencial y con cautela por sus limitaciones. Este enfoque equilibrado garantizará que la IA sea una herramienta beneficiosa en la investigación jurídica, aumentando la experiencia humana en lugar de socavarla.
- Distribución de relaciones públicas y contenido potenciado por SEO. Consiga amplificado hoy.
- PlatoData.Network Vertical Generativo Ai. Empodérate. Accede Aquí.
- PlatoAiStream. Inteligencia Web3. Conocimiento amplificado. Accede Aquí.
- PlatoESG. Carbón, tecnología limpia, Energía, Ambiente, Solar, Gestión de residuos. Accede Aquí.
- PlatoSalud. Inteligencia en Biotecnología y Ensayos Clínicos. Accede Aquí.
- Fuente: https://metanews.com/ai-misstep-trumps-ex-lawyer-misuses-google-bard-for-legal-citations/