Logotipo de Zephyrnet

Encuesta: más de la mitad de los estudiantes universitarios del Reino Unido utilizan la IA para el trabajo universitario

Fecha:

IA en resumen Más de la mitad de los estudiantes universitarios en el Reino Unido utilizan IA para completar sus tareas, según un estudio realizado por el Instituto de Política de Educación Superior.

El estudio preguntó a más de 1,000 estudiantes universitarios si recurrían a herramientas como ChatGPT para ayudar a escribir ensayos o resolver problemas, y el 53 por ciento admitió usar la tecnología. Un grupo más pequeño (cinco por ciento de los participantes) dijo que simplemente copiaban y pegaban texto generado por IA para sus tareas escolares.

“Mi principal preocupación es el importante número de estudiantes que desconocen el potencial de 'alucinaciones' e imprecisiones en la IA. Creo que es nuestra responsabilidad como educadores abordar este tema directamente”, dijo Andrés Guadamuz, profesor de Derecho de Propiedad Intelectual de la Universidad de Sussex. les dijo a The Guardian. 

La tecnología aún es incipiente y los profesores se están familiarizando con cómo se debe y no se debe utilizar en la educación. La Education Endowment Foundation (EFF), una organización benéfica independiente, está lanzando un experimento para ver cómo la IA puede ayudarles a crear materiales didácticos, como planes de lecciones, exámenes o preguntas de práctica. Según los informes, cincuenta y ocho escuelas participan en el estudio. 

"Ya existe una gran expectativa sobre cómo esta tecnología podría transformar las funciones de los docentes, pero la investigación sobre su impacto real en la práctica es, actualmente, limitada", dijo Becky Francis, directora ejecutiva de EEF. "Los hallazgos de este ensayo serán una contribución importante a la base de evidencia, acercándonos a la comprensión de cómo los profesores pueden utilizar la IA".

ChatGPT de OpenAI está infringiendo las leyes europeas GDPR, dice Italia

La Autoridad de Protección de Datos de Italia cree que OpenAI está violando las leyes GDPR de la UE y le ha dado a la startup la oportunidad de responder a las acusaciones.

El año pasado, la Garantía prohibido temporalmente acceso a ChatGPT desde dentro del país mientras investigaba problemas de privacidad de datos. Los funcionarios estaban alarmados de que OpenAI pudiera haber extraído información personal de los italianos de Internet para entrenar sus modelos.

Temían que el chatbot de IA pudiera recordar y regurgitar números de teléfono, direcciones de correo electrónico o más de las personas de los usuarios que intentaban extraer los datos consultando el modelo. El regulador lanzó una investigación en el software de OpenAI y ahora considera que la compañía está violando sus leyes de privacidad de datos. La startup podría enfrentarse a multas de hasta 20 millones de euros o el 4 por ciento de los ingresos anuales de la empresa. 

"Creemos que nuestras prácticas se alinean con el RGPD y otras leyes de privacidad, y tomamos medidas adicionales para proteger los datos y la privacidad de las personas", dijo un portavoz de la empresa. les dijo a TechCrunch en un comunicado. 

“Queremos que nuestra IA aprenda sobre el mundo, no sobre individuos privados. Trabajamos activamente para reducir los datos personales en la capacitación de nuestros sistemas como ChatGPT, que también rechaza solicitudes de información privada o sensible sobre las personas. Planeamos continuar trabajando de manera constructiva con Garante”.

A OpenAI se le dieron 30 días para defenderse y explicar cómo su modelo no viola el RGPD.

Abogado en problemas por citar casos falsos inventados por AI

Otro abogado citó una vez más un caso inventado por ChatGPT en una demanda.

Jae Lee, un abogado de Nueva York, ha según se informa se metió en problemas y fue remitida al panel de quejas de abogados en una orden dictada por jueces del Tribunal de Apelaciones del Circuito de Estados Unidos.

Admitió haber citado una “decisión de un tribunal estatal inexistente” en el tribunal y dijo que confió en el software “para identificar precedentes que pudieran respaldar sus argumentos” sin molestarse en “leer o confirmar de otro modo la validez de la decisión que citó”. la orden leída.

Desafortunadamente, su error ahora significa que la demanda de su cliente, que acusaba a un médico de negligencia, ha sido desestimada. No es la primera vez que un abogado confía en ChatGPT en su trabajo, para luego descubrir que había inventado casos falsos. 

Puede resultar tentador recurrir a herramientas como ChatGPT porque es una manera fácil de extraer y generar texto, pero a menudo fabrican información, lo que hace que su uso en aplicaciones legales sea especialmente riesgoso. Sin embargo, muchos abogados siguen haciéndolo.

El año pasado, un par de abogados de Nueva York fueron multados por casos falsos citados por ChatGPT, mientras que a un abogado en Colorado se le prohibió temporalmente ejercer la abogacía. Mientras tanto, en diciembre del año pasado, Michael Cohen, el ex abogado de Donald Trump, supuestamente hizo lo mismo. Error

El Reino Unido podría perderse la 'fiebre del oro' de la IA si se preocupa demasiado por la seguridad, dicen Lords

Un informe de un comité de la cámara alta del Reino Unido dice que la capacidad del país para participar en la llamada "fiebre del oro de la IA" está en peligro si se centra demasiado en "riesgos lejanos e improbables".

Un informe de IA de la Cámara de los Lores publicado la semana pasada afirma que el deseo del gobierno de establecer barreras para los modelos de lenguajes grandes amenaza con sofocar la innovación nacional en la naciente industria. También advierte sobre el riesgo “real y creciente” de captura regulatoria, describiendo una “carrera multimillonaria para dominar el mercado”.

El informe añade que el gobierno debería priorizar la competencia abierta y la transparencia, ya que sin esto un pequeño número de empresas tecnológicas podrían consolidar rápidamente su control del "mercado crítico y sofocar a nuevos actores, reflejando los desafíos observados en otros lugares en los servicios de Internet". ®

punto_img

Información más reciente

punto_img