George Floyd protesta que las máscaras faciales de coronavirus plantean desafíos para el reconocimiento facial


A principios de junio, grupos de derechos civiles dieron la alarma en un memorando filtrado que afirma que el Departamento de Justicia de los Estados Unidos autorizó a la Administración de Control de Drogas a llevar a cabo una vigilancia encubierta y otras investigaciones sobre quienes protestaron por el asesinato de George Floyd por la policía.

El documento, Recibido de BuzzFeed News, no especifica exactamente cómo la DEA llevaría a cabo este monitoreo, pero la publicación de tecnología CNET especuló que la agencia podría usar tecnología de reconocimiento facial. Por su parte, la DEA, junto con otras autoridades federales, se ha negado a responder preguntas sobre si utiliza y cómo utiliza el reconocimiento facial.

En octubre, la Unión Americana de Libertades Civiles demandó al Departamento de Justicia para obligarlo a revelar más. Según un archivo de la corte con fecha del 15 de mayo, el progreso judicial se ha retrasado debido a la pandemia de coronavirus.

El uso potencial de las tecnologías de reconocimiento facial para identificar a los involucrados en las protestas de George Floyd ha sido un tema sensible basado en estudios que muestran que la mayoría de estos sistemas son menos precisos cuando se trata de identificar a las personas de piel oscura. Una razón para esto es que la tecnología de la cámara no hace que la compensación de luz sea buena para diferentes tonos de piel, especialmente si están presentes en una sola imagen. Sin embargo, lo más importante es que los negros están subrepresentados en los conjuntos de datos utilizados para entrenar algoritmos de reconocimiento facial.

IBM, que había impulsado los esfuerzos para construir conjuntos de datos faciales más completos para entrenar algoritmos de reconocimiento facial, dijo el 8 de junio que después de las protestas de George Floyd, la compañía suspendería el marketing, el desarrollo y la investigación de tecnologías de reconocimiento facial y estaría activa hablar en contra de su uso para la vigilancia masiva o para la creación de perfiles raciales.

Amazon anunció el miércoles que impuso una moratoria de un año en la venta de su tecnología, conocida como software de reconocimiento y reconocimiento facial a las estaciones de policía de los EE. UU.

Al día siguiente, el presidente de Microsoft, Brad Smith, dijo que la compañía también dejaría de vender tecnología de reconocimiento facial a las agencias policiales estadounidenses "en espera de una ley de derechos humanos que regule esa tecnología".

Además, el virus corona ha agregado otro factor que puede descarrilar a las compañías que venden sistemas de reconocimiento facial: el uso generalizado de máscaras faciales. Las compañías tecnológicas han estado tratando de volver a entrenar sus algoritmos para hacer frente a las personas que usan máscaras. Si ese software puede alcanzar la misma precisión que los rostros descubiertos es un tema de debate entre los investigadores, y un motivo de preocupación entre los grupos de derechos civiles que ya están preocupados por la tecnología.

La mayoría del software de reconocimiento facial analiza los puntos de datos en la cara y la distancia entre ellos. Cubra muchos de estos puntos con una máscara, y de repente el algoritmo se queda sin datos para identificar con precisión.

Este es el caso, por ejemplo, con el sistema Apple Face ID para iPhone. Los usuarios descubrieron que el reconocimiento facial dejó de funcionar al usar una máscara. "Face ID está diseñado para funcionar con ojos, nariz y boca visibles", dijo un comunicado de Apple.

A fines de mayo, Apple actualizó su sistema operativo para que los usuarios puedan omitir rápidamente Face ID e ingresar un código de acceso numérico en lugar de acceder al teléfono. Sin embargo, no se ha introducido ninguna forma para que los usuarios usen la detección de rostros cuando usan una máscara.

Algunas compañías que venden tecnologías de reconocimiento facial afirman que podrían usar su software para trabajar con usuarios de máscaras. Antes de decidir dejar de ofrecer el software a las agencias policiales, Amazon había dicho que su algoritmo de detección podría manejar las complicaciones adicionales. SenseTime de China: uno de los A.I. más valiosos Las compañías que venden software de reconocimiento facial, que fue controvertido por trabajar con el gobierno chino, dice que ellos también han modificado su software para reconocer a las personas enmascaradas. Varias otras compañías, incluidas NtechLab, una compañía rusa de reconocimiento facial, y Corsight, una compañía israelí de reconocimiento facial, también dicen que su tecnología aún funciona cuando las personas usan máscaras faciales.

Stuart Greenfield, portavoz de Facewatch, una compañía británica que vende software de reconocimiento facial que las compañías usan para identificar ladrones o carteristas conocidos, dice que la compañía ha vuelto a entrenar su sistema para trabajar, enfocándose principalmente en el área alrededor del Los ojos y la distancia entre ellos se centraron. Él dice que el software ahora alcanza aproximadamente la misma precisión, 93.5%, que con una cara sin máscara. La única diferencia, dice, es que el software Facewatch tarda unos milisegundos más en identificarse que con una cara sin máscara.

Pero otros, como la compañía TrueFace con sede en Los Ángeles, cuyo software es utilizado por clientes como la Fuerza Aérea de los EE. UU., Dicen que todavía están tratando de recopilar suficientes imágenes de personas enmascaradas para actualizar sus algoritmos.

Los expertos advierten que el funcionamiento real de la tecnología depende de cómo se use. Según Greenfield, una de las razones por las que Facewatch pudo desarrollar un sistema que no está abrumado por las máscaras fue que solo se debe usar para cámaras de vigilancia que se instalan a la altura de la cabeza en interiores y en las que las cámaras pueden capturar una cabeza de primer plano y cara completa Vista de una persona en condiciones de iluminación relativamente estables. No está destinado a elegir a una persona de una gran multitud en el espacio público, y Facewatch no vende su tecnología a las fuerzas policiales por ese motivo.

Ben Ziomek, cofundador y director de tecnología de Actuate AI, que fabrica software. Para las cámaras de vigilancia que detectan cuando alguien está apuntando con una pistola, existen dos problemas con el uso de sistemas de detección de rostros en espacios públicos ocupados: Primero, el Utiliza cámaras con una resolución lo suficientemente alta como para que un algoritmo tome una imagen de una cara que tenga al menos 300 a 500 píxeles por pie. Por debajo de esta resolución, dice, la mayoría de los algoritmos tienen problemas para hacer identificaciones altamente precisas. Él cree que los algoritmos con los datos de entrenamiento correctos y las imágenes de esta calidad pueden manejar máscaras.

El segundo problema tenía que ver con cuántas personas deberían revisar el sistema. Incluso con una tasa de precisión del 99,9%, un sistema de reconocimiento facial puede identificar erróneamente a muchas personas cuando se usa en un lugar público concurrido. Por ejemplo, en la Terminal Grand Central de Nueva York, que promediaba 750,000 personas un día antes de COVID-19, un algoritmo con una precisión del 99.9% todavía significaría 750 falsas alarmas por día, y 750 personas pueden realizar innecesariamente investigaciones policiales. [19659002] En el Reino Unido, la policía de la ciudad de Londres comenzó a usar la detección de rostros en varias áreas ocupadas de la ciudad en enero para detectar sospechosos criminales. Sin embargo, el sistema ha sido criticado por defensores de la privacidad, como el grupo Big Brother Watch, por causar demasiadas falsas alarmas, y eso fue antes de que alguien usara máscaras faciales. De hecho, en una prueba del sistema, la policía arrestó a un hombre que afirmó que estaba usando una máscara a propósito para no ser identificado por el sistema de cámara.

“Ahora nos enfrentamos a la situación de que usar máscaras, bufandas y máscaras estará a la orden del día durante muchos meses en lugares públicos de Londres. Incluso los partidarios firmes de la tecnología de reconocimiento facial seguramente deben aceptar que este no es el momento adecuado para introducir esta tecnología ", dijo Caroline Pidgeon, miembro de la Asamblea de Londres. Ella es uno de los dos miembros de la Asamblea de Londres que pidió oficialmente a la Policía Met que detuviera el reconocimiento facial. En respuesta, la policía anunció que "pausará" el uso de la tecnología.

El software utilizado por Met Police es fabricado por el NEC japonés, cuyo software también es utilizado por varias agencias de aplicación de la ley de EE. UU., Incluyendo Aduanas y Grenzschutz.

Benji Hutchinson, vicepresidente de la división estadounidense de NEC, dijo a los periodistas que el software de NEC fue entrenado para personas con máscaras faciales porque a menudo las usaban personas en Asia durante la temporada de gripe, pero eso no significa todo es perfecto. “

Varios grupos de investigación han puesto a disposición conjuntos de datos de personas con máscaras de forma gratuita en el repositorio de códigos GitHub para que puedan entrenar algoritmos de reconocimiento facial. Sin embargo, la forma en que se obtienen estos registros faciales también es controvertida.

Por ejemplo, en mayo, la ACLU presentó una demanda contra Clearview, una controvertida empresa emergente de reconocimiento facial que ha comercializado su software a las agencias policiales estadounidenses y ha acusado a la compañía de violar la estricta ley de privacidad biométrica de Illinois. La demanda alega que Clearview violó la ley al almacenar los datos biométricos de las personas sin permiso. Clearview adquirió muchas de las 3 mil millones de imágenes faciales que dice tener al eliminar Facebook, Pinterest y otros sitios públicos de redes sociales, que a veces violan los términos y condiciones de esos sitios.

Además de cómo se obtienen los datos de entrenamiento, no existen estándares o puntos de referencia para evaluar qué tan bien funcionan los sistemas de reconocimiento facial para las personas con máscaras.

El Instituto Nacional de Estándares y Tecnología de los Estados Unidos, que proporciona la prueba que la mayoría de las compañías usan para comparar sus algoritmos de reconocimiento facial, se realizará una prueba para evaluar qué tan bien funcionan los algoritmos en las caras enmascaradas. Debido a que sus proyectos se han retrasado por la pandemia, es posible que la nueva prueba no esté disponible pronto.

Clare Garvie, investigadora del Centro de Protección de Datos y Tecnología de la Facultad de Derecho de la Universidad de Georgetown, que ha investigado el uso de la detección de rostros por parte de las agencias policiales. El uso de máscaras faciales aumenta su preocupación por el software.

La singularidad de los datos faciales nunca ha sido científicamente probada, dice ella. Además, hay poca información verificable independientemente sobre cuán precisos son estos sistemas, y mucho menos cuán precisos son para identificar a una persona, señala. Las autoridades policiales se mostraron reacias a revelar este tipo de información técnica a los abogados defensores. "Nunca ha habido una audiencia sobre la fiabilidad de la tecnología", dice, y agrega que cada vez que los abogados defensores solicitan información técnica sobre el software como parte del proceso de descubrimiento, el fiscal decidió abandonar el caso o adjunto. [19659002] La ​​mayoría de los organismos encargados de hacer cumplir la ley tienen reglas que indican que la coincidencia de un algoritmo de reconocimiento facial no es suficiente para determinar el motivo probable de un arresto, señala Garvie. Puede ser un "aviso de investigación", pero los oficiales deben tener otra evidencia para determinar la causa probable antes de buscar o arrestar a alguien. En la práctica, sin embargo, ha habido muchos casos en los que los funcionarios no han seguido estas pautas y han utilizado la coincidencia del software de reconocimiento facial como la única base para una búsqueda o arresto.

Garvie tampoco es fanático del uso del reconocimiento facial por parte de empresas y otras compañías para evitar robos o hurtos. Ella dice que hay muy poca transparencia y responsabilidad sobre la cara de quién aparece en un registro de "lista de observación" y cómo se recopilan y usan esos datos.

Sin embargo, ella no es optimista de que el uso generalizado de máscaras faciales debido a la pandemia retrasará la introducción del software de reconocimiento facial. De hecho, desde que comenzó la pandemia, algunas compañías que venden la tecnología han comenzado a comercializar su software para ayudar a gobiernos o compañías a rastrear contactos para personas infectadas. "El modelo de compañía de vigilancia es uno de los beneficios de la crisis", dice ella. "Y eso es ciertamente una crisis".

Más debe Informes técnicos de Fortune :

  • "No es una decisión fácil": cómo Alexis Ohanian justificó su dimisión de la Junta de Reddit
  • IBM se retira Reconocimiento facial, miedo a los perfiles raciales y vigilancia masiva
  • Nueva estrategia de crecimiento de Stitch Fix: dejar que los no clientes compren directamente
  • Walmart está impulsando nuevos planes de sede para ayudar a los empleados a colaborar después de la pandemia [19659035] RELOJ: los robots de Ocado quieren cambiar la tienda de comestibles

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *