Logotipo de Zephyrnet

Qué significa la 'Declaración de derechos de AI' de la Casa Blanca para la educación

Fecha:

Con Crece la ansiedad por la IA, el gobierno federal publicó su plan sobre cómo evitar que la privacidad se estanque en la era digital.

Publicado la semana pasada, el “Plan para una declaración de derechos de la IA”, un conjunto de principios no vinculantes destinados a salvaguardar la privacidad, incluía una disposición para la privacidad de datos y la educación de notas como una de las áreas clave involucradas.

El plan se caracterizó de inmediato como ampliamente "sin dientes" en la lucha para enmendar las formas de Big Tech y el sector privado, y el escritor tecnológico Khari Johnson argumentó que el plan tiene menos mordida que una legislación europea similar al notar que el plano no menciona la posibilidad de prohibir alguna IA. En cambio, señaló Johnson, es más probable que el modelo corrija el curso de la relación del gobierno federal con el aprendizaje automático.

Para los expertos en privacidad, es un avance que al menos subraya la necesidad de una mayor discusión pública de los problemas.

El progreso lento sigue siendo progreso

¿Qué significa una 'Declaración de derechos de AI' para la educación?

No está claro cómo el Departamento de Educación utilizará el plan, dice Jason Kelley, director asociado de estrategia digital de Electronic Frontier Foundation, una destacada organización sin fines de lucro de privacidad digital.

La educación es una de las áreas mencionadas específicamente en el proyecto de ley, pero los observadores han señalado que el cronograma para el Departamento de Educación es relativamente lento. Por ejemplo: la orientación sobre el uso de la IA para la enseñanza y el aprendizaje es programado para 2023, más tarde que los plazos de otras agencias gubernamentales.

Y las pautas que surjan no serán una panacea para el sistema educativo. Pero que el gobierno reconozca que las herramientas de aprendizaje automático están violando los derechos de los estudiantes es un "gran paso adelante", escribió Kelley en un correo electrónico a EdSurge.

El lanzamiento del modelo llega en un momento en que la privacidad parece esquiva en las escuelas, tanto K-12 como en la universidad. y ha habido pide intervención federal en esos frentes durante algún tiempo.

De particular preocupación es el uso de sistemas de vigilancia de IA. Por ejemplo: uno reciente Estudio del Centro para la Democracia en Tecnología encontró que las escuelas utilizan más a menudo los sistemas de vigilancia para castigar a los estudiantes que para protegerlos. La tecnología, si bien está destinada a prevenir tiroteos en las escuelas o alertar a las autoridades sobre los riesgos de autolesiones, puede dañar más a los estudiantes vulnerables, como los estudiantes LGBTQ+, señaló el estudio.

El plan indica a las escuelas, y a los desarrolladores de edtech, que los humanos deberían revisar las decisiones tomadas por las herramientas de IA, dijo Kelley. También muestra, agrega, que la transparencia es “esencial” y que la privacidad de los datos “debe ser primordial”.

Llévalo al salón de clases

Mucho de lo que está en el plan se basa en principios básicos de privacidad, dice Linette Attai, experta en privacidad de datos y presidenta de la firma consultora PlayWell, LLC.

Aun así, traducir el plan bastante amplio en una legislación específica podría ser complicado.

“No existe una tecnología única para todos”, dice Attai. Ella sugiere que los distritos escolares obtengan más conocimientos comerciales sobre su tecnología y evalúen continuamente cómo esa tecnología está afectando a sus comunidades. Y los líderes escolares deben explicar claramente lo que están tratando de lograr en lugar de simplemente traer nuevos dispositivos llamativos, agrega.

Si bien la atención a estos problemas puede ser nueva, el desafío no lo es.

En un estudio de cómo piensan los estudiantes universitarios y los profesores sobre los sistemas digitales que utilizan, Barbara Fister descubrió que los educadores y estudiantes con los que habló nunca habían pensado seriamente en las plataformas digitales que estaban usando. Cuando se lo contó a los estudiantes, se enfadaron. Pero se sintieron impotentes. “No hubo consentimiento informado involucrado, por lo que pudimos ver”, dice Fister, profesora emérita en Gustavus Adolphus College y la becaria inaugural en residencia para Project Information Literacy.

Los estudiantes estaban aprendiendo más unos de otros que de los maestros, y las lecciones sobre la enseñanza de la alfabetización informacional parecían depender de una guía que ya estaba desactualizada, dice Fister. Muchos estudiantes universitarios parecían no esperar aprender sobre cómo administrar las herramientas digitales de sus profesores, dice ella.

Eso fue antes de la pandemia, en 2019. Es probable que ahora estas plataformas estén en el radar de las personas, dice. Pero los temas que plantean no tienen por qué quedar fuera del aula.

A Fister le gusta el enfoque del modelo, en parte porque los materiales recomendados presentan ejemplos específicos de cómo se utilizan los algoritmos, lo que considera útil para aquellos que buscan llevar este tema al salón de clases para su discusión.

“Son cosas que entusiasman mucho a los estudiantes”, dice Fister. “Porque es algo que está en el éter, es algo que los afecta”.

punto_img

Información más reciente

punto_img