El software que monitorea a los estudiantes durante las pruebas mantiene la desigualdad y viola su privacidad


La pandemia de coronavirus fue una bendición para la industria de supervisión de pruebas. Alrededor de media docena de compañías en los Estados Unidos afirman que su software puede detectar y prevenir con precisión el fraude en las pruebas en línea. Examity, HonorLock, Proctorio, ProctorU, Respondus y otros han crecido rápidamente desde que los colegios y universidades han cambiado a clases lejanas.

Aunque no existe un registro oficial, es razonable decir que se realizan millones de pruebas monitoreadas algorítmicamente en todo el mundo cada mes. Proctorio le dijo al New York Times en mayo que el negocio aumentó en un 900% en los primeros meses de la pandemia, hasta que se realizaron 2.5 millones de pruebas en todo el mundo solo en abril.

Soy bibliotecario universitario y he visto de cerca los efectos de estos sistemas. Mi propio empleador, la Universidad de Colorado, Denver, tiene un contrato con Proctorio.

Me di cuenta de que la supervisión algorítmica es una tecnología de vigilancia moderna que mejora la supremacía blanca, el sexismo, la conciencia de la capacidad y la transfobia. El uso de estas herramientas es una violación de la privacidad del estudiante y, a menudo, una violación de los derechos civiles.

Si es un estudiante que realiza una prueba supervisada algorítmicamente, así es como funciona: cuando comienza, el software comienza a registrar su Cámara, audio y los sitios web que visitas. Mide su cuerpo y lo monitorea durante la duración del examen. Realiza un seguimiento de sus movimientos para determinar lo que ve como comportamiento fraudulento. Si hace algo que el software considera sospechoso, se le recomendará a su profesor que vea el registro y le dé una probabilidad codificada por colores de su mala conducta académica.

Dependiendo de qué compañía hizo el software, se utiliza una combinación de máquinas, aprendizaje, inteligencia artificial y biometría (incluido el reconocimiento facial, el reconocimiento facial o el seguimiento ocular) para hacer todo esto. El problema es que el reconocimiento facial y el reconocimiento han demostrado ser racistas, sexistas y transfóbicos una y otra vez.

En general, la tecnología refuerza la opresión estructural como el racismo y el sexismo. Ahora aparecen los mismos prejuicios en el software de supervisión de pruebas que perjudica desproporcionadamente a los estudiantes marginados.

Una mujer negra en mi universidad una vez me dijo que cuando usaba el software de supervisión de pruebas de Proctorio, tenía que arrojar más y más luz sobre su rostro. El software no pudo validar su identidad y se le negó el acceso a las pruebas tantas veces que tuvo que acudir a su profesor para tomar otras precauciones. Tus colegas blancos nunca tuvieron este problema.

Tipos similares de discriminación pueden ocurrir cuando un estudiante es trans o no binario. Pero si eres un hombre cis blanco (como la mayoría de los desarrolladores que hacen software de reconocimiento facial), probablemente estarás bien.

Los estudiantes con niños también son castigados por estos sistemas. Si alguna vez trató de responder correos electrónicos mientras cuidaba a los niños, sabe lo imposible que puede ser pararse frente a la computadora durante unos minutos sin interrupción. Sin embargo, con varios programas de vigilancia, los ruidos en la habitación o las personas que dejan la vista de la cámara se marcan como vergonzosas. Esto significa que los estudiantes con enfermedades que a menudo necesitan ir al baño o tomar medicamentos se consideran igualmente sospechosos.

Además de todas las formas en que el software de supervisión puede discriminar a los estudiantes, la supervisión algorítmica también es una violación significativa de la privacidad. Estos productos filman a los estudiantes en sus hogares y a menudo requieren que realicen "escaneos de habitaciones" usando sus cámaras para mostrar sus alrededores. En muchos casos, los profesores pueden acceder a las grabaciones de sus alumnos en cualquier momento e incluso descargar estas grabaciones a sus máquinas personales. También puede ver la ubicación de cada alumno en función de su dirección IP.

Para los bibliotecarios como yo, la privacidad es primordial porque los clientes nos confían su información. Después del 11 de septiembre, cuando la Ley Patriota autorizó al Departamento de Seguridad Nacional de EE. UU. A acceder a los datos de usuario de la biblioteca en busca de terroristas, muchos bibliotecarios utilizaron software para borrar los datos de los usuarios cuando se devolvió un libro. Los productos que violan la privacidad de las personas y discriminan contra ellos violan mi ética profesional, y es profundamente preocupante que tales productos sean adoptados con entusiasmo por las universidades.

Este celo sería un poco más comprensible si hubiera evidencia de que estos programas realmente estaban haciendo lo que dicen. Que yo sepa, no hay un solo estudio verificado o controlado por expertos que muestre que el software de vigilancia detecte o prevenga fraudes de manera efectiva. Dado que las universidades se enorgullecen de tomar decisiones basadas en evidencia, esta es una supervisión flagrante.

Afortunadamente, actualmente hay movimientos para prohibir el software de vigilancia y las tecnologías de reconocimiento facial en el campus, y las leyes del Congreso para prohibir al gobierno federal de los Estados Unidos el reconocimiento facial. Pero incluso si se prohibiera la tecnología de reconocimiento facial, podría haber un software de monitoreo como un programa que rastrea los movimientos de los ojos y el cuerpo de los estudiantes. Si bien esto puede ser menos racista, aún discriminaría a las personas con discapacidad, a los padres que amamantan y a las personas neuro-atípicas. Estos productos no pueden ser reformados. Deberías ser abandonado.

El fraude no es una amenaza para la sociedad que los supervisores de prueba creerían. No diluye el valor de los títulos ni degrada la reputación institucional, y los estudiantes no intentan engañar a su cirujano. La tecnología no ha inventado las condiciones para el fraude y no será lo que los detenga. Lo mejor que podemos hacer en la educación superior es comenzar con la idea radical de confiar en los estudiantes. Elijamos la compasión por la vigilancia.

Shea Swauger es bibliotecaria académica e investigadora en la Universidad de Colorado, Denver.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *