El estudio "Fundamentalmente defectuoso" describe un sistema de reconocimiento facial para identificar personas no binarias


Última oportunidad: regístrese para Transform, el evento de IA del año de VB, que tendrá lugar en línea del 15 al 17 de julio.


En un artículo publicado en el servidor de preimpresión Arxiv.org, los coautores asociados con Harvard y Autodesk sugieren ampliar las capacidades de los sistemas actuales de reconocimiento facial para identificar "subgrupos de minorías de género" como LGBTQ y comunidades no binarias. Afirman que los corpus que crearon, una base de datos "racialmente equilibrada" que captura un subconjunto de personas LGBTQ y una base de datos de "género inclusivo", pueden reducir el sesgo en los algoritmos de clasificación de género. Según el investigador de IA de la Universidad de Washington, Os Keyes, que no participó en la investigación, el documento no solo parece comprender el género, sino también peligrosamente.

"Los investigadores van y vienen para tratar el género como modelado fisiológica y visualmente de manera fija y de manera más flexible y contextual", dijo Keyes. "No conozco los antecedentes de los investigadores, pero en el mejor de los casos soy escéptico de que hayan hablado alguna vez con transexuales sobre este proyecto".

El reconocimiento facial es problemático a primera vista, tanto que la Asociación de Maquinaria de Computación (ACM) ) y la Unión Americana de Libertades Civiles (ACLU) continúan pidiendo una moratoria en todas sus formas. (San Francisco, Oakland, Boston y otras cinco comunidades en Massachusetts han prohibido el uso del reconocimiento facial por parte de los departamentos locales. Luego de la culminación de las recientes protestas contra Black Lives Matter en los Estados Unidos, compañías como Amazon, IBM y Microsoft han sido detenidas o descontinuadas Productos de reconocimiento facial.) Los puntos de referencia de los sistemas de grandes proveedores por el proyecto Gender Shades y el Instituto Nacional de Estándares y Tecnología (NIST) han demostrado que el reconocimiento facial en personas que no lo hacen muestra raza, prejuicio de género y bajo rendimiento de una sola identidad de género. corresponder. Y el reconocimiento facial puede ser muy inexacto y clasificar erróneamente a las personas en más del 96% de los casos.

Sin embargo, los coautores del periódico, quizás con las mejores intenciones, intentaron mejorar el rendimiento de los sistemas de reconocimiento facial cuando se aplicaron a personas transgénero y no binarias. Creen que los algoritmos actuales de reconocimiento facial probablemente refuercen las tendencias sociales de género y que la falta de representación LGBTQ en las bases de datos de referencia populares conduce a un "falso sentido de progreso" en las tareas de clasificación de género en el aprendizaje automático, lo que puede dañar la autoconfianza y la psicología

Eso es razonable, según Keyes, pero las suposiciones de los investigadores sobre el género no son razonables.

"Eliges tratar el género como personas fijas y no binarias como & # 39; tercer género & # 39; modelar "categoría entre hombres y mujeres, lo que no significa nada binario", dijo Keyes. "Las personas pueden ser no binarias y estar presentes de maneras muy diferentes, identificarse de maneras muy diferentes, [and] tienen muchas historias e historias de vida diferentes y formas deseadas de tratamiento".

También es problemático que los investigadores citen y obtengan apoyo. Un estudio controvertido muestra que todos los métodos de cambio de sexo, incluida la terapia de reemplazo hormonal (TRH), conducen a fluctuaciones faciales "significativas" en forma y textura con el tiempo. Partes interesadas como GLAAD y la campaña de derechos humanos han calificado el estudio de "ciencia basura" que "amenaza la seguridad y la privacidad de las personas LGBTQ y no LGBTQ por igual".

"Esta ciencia basura … se basa en muchos estudios (francamente espeluznantes) de biología evolutiva y sexología, en los que la rareza se trata como el origen de" demasiada "o" muy poca "testosterona en el útero", Keyes dijo: "Estos estudios tampoco han sido validados: son atractivos porque implican que las personas homosexuales son demasiado femeninas o que las lesbianas son demasiado masculinas, y refuerzan los estereotipos sociales. Dependiendo de ellos y su confirmación en un estudio, los autores afirman que la mitigación de la discriminación es absolutamente confusa. "

La primera base de datos de los investigadores, la" base de datos inclusiva ", contiene 12,000 imágenes de 168 identidades únicas, incluyendo 29 hombres blancos, 25 mujeres blancas, 23 hombres asiáticos, 23 mujeres asiáticas, 33 hombres africanos y 35 mujeres africanas de diferentes orígenes. regiones geográficas, de las cuales 21 (9% de la base de datos) se identifican como LGBTQ. La segunda, la base de datos de referencia de género no binaria, comprende 2.000 disparos a la cabeza de 67 personas públicas, que están marcadas como "no binarias" en Wikipedia.

Keyes cuestiona el segundo conjunto de datos, que afirman que no es representativo porque es una selección y por la forma en que se supervisa la apariencia en la cultura de las celebridades. "Las personas de color, discapacitadas y pobres no tienen que aplicar, y menos aún", dijo Keyes. "Es comparable a eliminar los prejuicios contra las mujeres al agregar un conjunto de datos que solo contiene mujeres con trenzas. Incluso si" funciona ", probablemente no sirva para nadie que no se ajuste a un rango muy limitado de apariencias . "

Los investigadores entrenaron varios algoritmos de clasificación de imágenes en una base de datos de imágenes faciales" racialmente desequilibrada "pero popular. Admisión de la Universidad Abierta de Israel – complementada por imágenes de sus propios conjuntos de datos (1.500 imágenes de la base de datos inclusiva y 1.019 imágenes de los no binarios Luego aplicaron varias técnicas de aprendizaje automático para reducir el sesgo algorítmico y aumentar la precisión de los modelos, alegando que el modelo más poderoso podría predecir personas no binarias con una precisión del 91,97%. [19659003] Los resultados definitivamente ignoran el Tatsac oye, según Keyes, los sistemas "trans-inclusivos" para la definición no consensuada del género de una persona son una contradicción. "Si tiene tecnología basada en la idea de que el aspecto de las personas determina estrictamente cómo debe clasificarlas y tratarlas, no hay absolutamente ningún lugar para la rareza", dijeron. “En lugar de hacer que los sistemas de reconocimiento de género sean justos o justos, proyectos como este realmente ofrecen una apariencia de inclusión que se utiliza principalmente para legitimar los sistemas de vigilancia que se están construyendo; de hecho, no me sorprende que los autores finalmente propongan esto si Si hay problemas con sus modelos, se pueden solucionar mediante la recopilación de más datos. mediante el monitoreo de más personas no binarias. "

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *