Investigadores de DeepMind sugieren reconstruir la industria de IA basada en el anticolonialismo


Realice la última encuesta de VB para compartir cómo su empresa está implementando la IA hoy.


Los investigadores de Google DeepMind y la Universidad de Oxford recomiendan a los profesionales de IA que confíen en la teoría descolonial para reformar la industria, poner en práctica principios éticos y evitar una mayor explotación u opresión algorítmica.

Los investigadores explicaron cómo se construyen los sistemas de inteligencia artificial en el estudio crítico del colonialismo y las formas coloniales de inteligencia artificial, que ya se utilizan en un documento preliminar publicado el jueves. El documento fue escrito en colaboración con los científicos de DeepMind William Isaac y Shakir Mohammed y Marie-Therese Png, estudiante de doctorado de Oxford e interno en DeepMind Ethics and Society, quienes previamente brindaron asesoramiento técnico a las Naciones Unidas.

Los investigadores creen que el poder está en el centro de los debates éticos y que las conversaciones sobre el poder son incompletas si no tienen un contexto histórico y reconocen el legado estructural del colonialismo que da forma a la dinámica del poder hasta nuestros días. Sostienen además que las desigualdades como el capitalismo racial, la desigualdad de clase y el patriarcado heteronormativo tienen raíces en el colonialismo, y que debemos tener en cuenta esta dinámica de poder al diseñar sistemas de IA para evitar que continúe ese daño.

"Cualquier compromiso de construir de manera responsable y efectiva. La IA del futuro nos conecta con las jerarquías, la filosofía y la tecnología que provienen del pasado, y una nueva responsabilidad de la tecnología del presente", dijo el periódico. . "Esto es necesario para alinear mejor nuestro desarrollo de investigación y tecnología con los principios y reglamentos éticos establecidos y emergentes y para empoderar a las personas vulnerables que a menudo son las más afectadas por los efectos negativos de la innovación y el progreso científico".

El documento contiene una serie de propuestas, como el análisis del colonialismo de datos y la descolonización de las relaciones de datos, así como la aplicación del enfoque técnico crítico propuesto en 1997 para el desarrollo de IA. Philip Agre

El término IA anticolonial se basa en un creciente cuerpo de investigación de IA que enfatiza la importancia de incluir comentarios de las personas más afectadas por los sistemas de IA. Un artículo publicado a principios de esta semana en Nature argumenta que la comunidad de IA debe preguntar cómo los sistemas cambian el poder y afirma que "un campo indiferente sirve a los poderosos". En un número especial el otoño pasado, VentureBeat examinó cómo el poder influye en la ética de la inteligencia artificial. La dinámica del rendimiento también fue un tema clave de discusión en la conferencia ACM FAccT, que tuvo lugar a principios de 2020, a medida que más empresas y gobiernos nacionales están pensando en cómo se pueden poner en práctica los principios de la ética de la IA. Sistemas y lo que los autores llaman "lugares de colonialidad", o prácticas que pueden mantener la IA colonial. Estos incluyen pruebas beta en comunidades desfavorecidas, como Cambridge Analytica, que realiza pruebas en Kenia y Nigeria o Palantir que utilizan vigilancia predictiva para apuntar a los residentes negros de Nueva Orleans. También existe el "trabajo fantasma", la práctica de depender de los trabajadores de bajos salarios para el etiquetado de datos y el desarrollo del sistema de inteligencia artificial. Algunos argumentan que el efecto fantasma puede conducir a la creación de una nueva subclase global.

Los autores definen la "explotación algorítmica" como la forma en que las instituciones o empresas utilizan algoritmos para explotar a las personas ya marginadas, y la "opresión algorítmica" como la subordinación de un grupo de personas y privilegiando a otros mediante el uso de la automatización o sistemas de predicción basados ​​en datos.

Los principios éticos de grupos como el G20 y la OCDE, así como temas como el nacionalismo de la IA y el surgimiento de los EE. UU. Y China, se tratan en el documento como superpotencias de la IA.

“Los desequilibrios de poder dentro del discurso de gobernanza global de IA incluyen cuestiones de desigualdad de datos y la soberanía de la infraestructura de datos, pero también van más allá de esto. Necesitamos abordar temas como quién protege las normas y estándares regulatorios de IA, quién está facultado para proyectar esas normas y los riesgos de una minoría que continúa beneficiándose de la centralización del poder y el capital a través de mecanismos de expropiación ", dijo el comunicado Papel. Las tácticas recomendadas por los autores incluyen la acción de la comunidad política, las prácticas técnicas críticas y el uso de ejemplos anteriores de resistencia y recuperación de los sistemas coloniales.

Varios miembros de la comunidad de ética de AI, desde el investigador de ética relacional Abeba Birhane hasta la asociación para AI. han pedido a los profesionales del aprendizaje automático que pongan a las personas más afectadas por los sistemas algorítmicos en el centro de los procesos de desarrollo. El documento explora conceptos similares a los de un artículo publicado recientemente sobre el combate a la oscuridad en la comunidad de IA, el concepto de Ruha Benjamin de herramientas abolicionistas e ideas de IA emancipadora.

Los autores también se refieren a un sentimiento de carta abierta de que los miembros negros de la IA y la comunidad informática, que fueron liberados el mes pasado durante las protestas contra Black Lives Matter, instan a los practicantes de IA a reconocer cómo son sus creaciones. Apoye el racismo y la opresión sistémica en áreas como vivienda, educación, atención médica y empleo.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *