Cómo hacer espacio para la ética en la IA


En un año en el que décadas de conmociones globales, malas noticias y escándalos se convirtieron en doce meses insoportablemente largos, el verano ya parece un recuerdo lejano. En agosto de 2020, el mundo estaba inmerso en un gran movimiento por la justicia social y racial y, con suerte, expuse en VentureBeat que el término «IA ética» finalmente comenzaba a significar algo.

No fue la observación de un observador desinteresado sino más bien una visión optimista para unir a la comunidad ética de la IA sobre el poder, la justicia y el cambio estructural. En los últimos meses, sin embargo, ha demostrado ser una visión demasiado simplista en el mejor de los casos y una visión ingenua en el peor.

La obra criticó la IA ética de la «segunda ola» por preocuparse por las soluciones técnicas a los problemas de prejuicio y equidad en el aprendizaje automático. Encontró que centrarse en intervenciones técnicas para abordar el daño ético distrajo la conversación de los problemas de la injusticia estructural y permitió la «cooptación de científicos informáticos socialmente conscientes» por parte de las grandes empresas de tecnología.

Ahora entiendo que este argumento ha minimizado la contribución de los investigadores éticos de IA (científicos e investigadores de empresas de tecnología y sus empleados) a la agenda más amplia de justicia y ética. Solo vi cooptación y no pude resaltar la reacción crítica interna y los desafíos a las estructuras de poder arraigadas que los investigadores de IA ética están promoviendo, y el potencial de su investigación radical para cambiar la forma de la tecnología.

Los investigadores de ética contribuyen a este movimiento presentándose a trabajar todos los días, participando en la práctica diaria de la fabricación de tecnología y luchando contra una avalancha de métricas de productividad y métricas de crecimiento para una agenda que se mueve lentamente y arregla las cosas. Muchos de estos investigadores adoptan una posición de principio como miembros de grupos minoritarios. He argumentado que un enfoque en la precisión técnica limita el discurso ético en la IA. De lo que no me di cuenta fue que tal investigación puede socavar la ortodoxia tecnológica que subyace al desarrollo poco ético de la tecnología y la IA.

La decisión de Google de nombrar al Dr. El despido de Timnit Gebru es una clara confirmación de que los investigadores en tecnología ética plantean un serio desafío a las empresas en las que trabajan. Dr. Gebru es un científico informático negro respetado cuyo trabajo más conocido aboga por intervenciones de orientación técnica contra el daño ético. La rescisión de su contrato por parte de Google ha sido objeto de muchos comentarios y debates. Refleja un punto importante: no importa si la «IA ética» significa algo para aquellos de nosotros que trabajamos para mejorar el impacto de la tecnología en la sociedad. Solo importa si significa algo para las empresas más poderosas del mundo.

Por esta razón, la decisión de Google de despedir sin ceremonias a un empleado experimentado, vocal y de alto perfil abre una línea crítica de error en la agenda ética de la IA y revela la parte más vulnerable de la gran tecnología.

Una agenda ética establece que los principios morales del bien y del mal deben influir en el desarrollo de tecnologías avanzadas, incluso si estas tecnologías son demasiado embrionarias, amorfas o contienen mercurio para que los marcos regulatorios existentes las capten o restrinjan rápidamente. La «IA ética» tiene como objetivo llenar los vacíos con una serie de herramientas: análisis basado en la filosofía moral, la teoría crítica y las ciencias sociales; Principios, condiciones marco y directrices; Evaluaciones de riesgo e impacto, auditorías de sesgos y controles externos. No se posiciona como un sustituto de las leyes y regulaciones, sino como un marcador de posición para ellas o como un complemento de ellas. Al reflexionar sobre las cuestiones éticas que plantea la IA, podemos averiguar dónde se necesita la regulación, qué investigación no se debe hacer y si los beneficios de la tecnología son justos y sostenibles.

Pero para que funcione, tiene que suceder en los lugares donde se lleva a cabo la investigación y el desarrollo técnico de la IA. En institutos de investigación, en universidades y especialmente en empresas de tecnología. Las pequeñas empresas que construyen vehículos autónomos, los laboratorios de investigación de IA de tamaño mediano y los gigantes tecnológicos que construyen las plataformas de comunicación y comercio dominantes deben reconocer, internalizar y permitir un espacio para pensar en la ética para que puedan marcar la diferencia. Deben hacer que los principios de justicia y diversidad sean fundamentales al tener en cuenta las perspectivas, voces y enfoques de toda la sociedad, especialmente la diversidad racial y de género. Lo que es más importante, deben darle a este trabajo el peso que se merece mediante el establecimiento de procesos de revisión de la ética con los dientes sancionados y respaldados por los ejecutivos.

Hasta ahora, muchas empresas han realizado la entrevista. Google, Facebook y DeepMind tienen oficiales de ética o equipos de ética establecidos en sus departamentos de investigación de IA. En muchas empresas de tecnología, la ética se ha vuelto más explícitamente responsabilidad de los directores de cumplimiento y los departamentos de confianza y seguridad. Los compromisos retóricos con la ética se han convertido en algo habitual en los podcasts y conferencias tecnológicas.

Fuera de las estructuras corporativas, la comunidad de investigación de IA se ha enfrentado a la responsabilidad de garantizar el desarrollo ético de la IA. Este año en particular, los investigadores tuvieron que enviar contribuciones a la conferencia líder en IA NeurIPS para tener en cuenta el impacto social de su trabajo y cualquier conflicto de interés financiero.

Y, sin embargo, como muestra una encuesta reciente a 24 practicantes éticos de la IA, incluso cuando las empresas nombran investigadores y profesionales dedicados a la IA ética, siguen sin crear el espacio y las condiciones para su trabajo. Los encuestados afirmaron que «se midieron en términos de productividad y contribuciones a las ventas, con poco énfasis en prevenir daños a la reputación o el cumplimiento y reducir los riesgos», y mucho menos garantizar beneficios sociales. La encuesta muestra que los actores corporativos no pueden poner en práctica los beneficios a largo plazo del desarrollo ético de la IA a expensas de las métricas de ganancias a corto plazo.

La encuesta muestra que los profesionales éticos de la inteligencia artificial corren el riesgo de sufrir represalias o sufrir daños por informar sobre preocupaciones éticas. Algunos equipos de ética informan que ciertos proyectos que merecen su atención tienen barreras cortafuegos o se limitan a abordar partes estrechas de problemas mucho más amplios. Las represalias en forma de recortes son más que una amenaza teórica para los investigadores de IA ética, como dice el Dr. El despido de Gebru muestra: Google la despidió después de criticar los daños y riesgos de los grandes modelos de lenguaje.

Si una de las empresas más rentables, influyentes y críticas del mundo no puede crear un espacio para la crítica ética en sus filas, ¿hay esperanza de promover una IA verdaderamente ética?

Solo si las condiciones estructurales en las que se basa la investigación y el desarrollo de la IA cambian fundamentalmente. Y ese cambio comienza cuando ya no permitimos que un puñado de empresas tecnológicas dominen por completo la materia prima de la investigación de la IA: los datos.

Las posesiones monopolísticas en el ámbito digital tienen un impacto negativo en la investigación ética de la IA. Permiten que algunos jugadores poderosos avancen en la investigación de IA que expandirá su propio poder y alcance, desplazando a los nuevos participantes que pueden estar compitiendo. En la medida en que los consumidores vean la IA ética como más confiable, confiable y socialmente legítima, su adopción podría ser un subproducto de un mercado más competitivo. Sin embargo, en un entorno de elección restringida del consumidor y poder concentrado, existen pocos incentivos comerciales para desarrollar productos diseñados para inspirar la confianza del público.

Por este motivo, los principales instrumentos de la IA ética serán la regulación técnica y la reforma de la competencia en 2021. La carta ya está en la pared: hay múltiples demandas antimonopolio pendientes contra las plataformas más grandes de EE. UU., Y esta semana la Comisión Europea anunció un paquete de reformas que reformará fundamentalmente las plataformas y su poder, tal como el gobierno del Reino Unido señaló el suyo Intento iniciar una reforma regulatoria para imponer la «debida diligencia» en las plataformas sobre daños en línea. Dichas reformas deberían corregir críticamente el panorama de la tecnología y el desarrollo de la inteligencia artificial, permitir caminos alternativos de innovación, estimular nuevos modelos comerciales y eliminar la homogeneidad del ecosistema digital.

Sin embargo, no serán una panacea. La influencia de las grandes tecnologías en la investigación académica no se disolverá con la reforma de la competencia. Y si bien es probable que haya una batalla prolongada para regular a un puñado de actores clave, miles de pequeñas y medianas empresas de tecnología necesitan abordar con urgencia los problemas éticos que plantea la investigación de la IA en relación con la agencia y la autonomía humanas. Equidad y justicia; y trabajo, bienestar y planeta.

Para hacer espacio para la investigación ética ahora, tanto dentro como fuera del sector tecnológico, no podemos esperar a que se regule la gran tecnología. Necesitamos comprender mejor la cultura de las empresas de tecnología, presionar por la protección de los denunciantes para los investigadores de ética, capacitar a los reguladores, desarrollar requisitos de documentación y transparencia, y realizar auditorías e inspecciones regulatorias. Y es necesario que haya una contabilidad en toda la industria cuando se trata de abordar el racismo sistémico y las prácticas laborales extractivas. Solo entonces las personas que construyen tecnologías pueden orientar su trabajo hacia el bienestar social.

Carly Kind es abogada de derechos humanos, experta en protección de datos y privacidad y directora de Instituto Ada Lovelace.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *