Los problemas que la IA tiene hoy se remontan siglos


De la misma manera, argumentan los autores del artículo, esta historia colonial explica algunas de las propiedades y efectos más preocupantes de la IA. Identifican cinco manifestaciones del colonialismo en esta área:

Discriminación y opresión algorítmica. Las correlaciones entre la discriminación algorítmica y el racismo colonial son quizás las más obvias: los algoritmos que se han desarrollado para automatizar procedimientos y se han entrenado en datos en una sociedad racialmente injusta repiten estos resultados en sus resultados racistas. Sin embargo, gran parte de la beca para este tipo de daño de la IA se centra en ejemplos en los Estados Unidos. El estudio en el contexto del colonialismo permite una perspectiva global: Estados Unidos no es el único lugar con desigualdades sociales. "Siempre hay grupos identificados y sometidos", dice Isaac.

trabajo fantasma. El fenómeno del trabajo fantasma, el trabajo de datos invisibles requerido para apoyar la innovación de IA, expande la relación económica histórica entre los colonizadores y los colonizados. Muchas antiguas colonias de EE. UU. Y el Reino Unido, Filipinas, Kenia e India, se han convertido en centros para empresas de EE. UU. Y el Reino Unido. Los trabajadores baratos de habla inglesa en los países que los hacen aptos para trabajar con datos existen debido a su historia colonial.

Pruebas beta. Los sistemas de IA a veces se prueban en grupos más vulnerables antes de implementarse para usuarios "reales". Por ejemplo, Cambridge Analytica probó beta sus algoritmos en las elecciones de Nigeria de 2015 y Kenia de 2017 antes de que se implementara en los EE. UU. Y el Reino Unido. Más tarde, los estudios encontraron que estos experimentos interrumpieron activamente el proceso electoral de Kenia y minaron la cohesión social. Este tipo de prueba refleja el tratamiento histórico de sus colonias por parte del Imperio Británico como laboratorios para nuevas drogas y tecnologías.

Gobierno de AI. Los desequilibrios de poder geopolíticos que dejó la era colonial también moldean activamente la gobernanza de la IA. Esto ha surgido en la reciente carrera por formar pautas globales para la ética de la IA: los países en desarrollo de África, América Latina y Asia Central han sido excluidos en gran medida de las discusiones, lo que ha llevado a que algunos se nieguen a participar en acuerdos internacionales de flujo de datos. El resultado: los países industrializados continúan beneficiándose desproporcionadamente de las normas globales que han sido diseñadas para su beneficio, mientras que los países en desarrollo continúan rezagados.

Desarrollo social internacional. En última instancia, los mismos desequilibrios de poder geopolítico afectan la forma en que la IA se utiliza para apoyar a los países en desarrollo. Las iniciativas "IA para el bien" o "IA para el desarrollo sostenible" a menudo son paternalistas. Están obligando a los países en desarrollo a confiar en los sistemas de IA existentes en lugar de participar en la creación de nuevos sistemas para su propio contexto.

Los investigadores encuentran que estos ejemplos no son exhaustivos, pero muestran cuán legados son los legados coloniales en el desarrollo global de IA. También combinan problemas aparentemente diferentes bajo una tesis unificada. "Nos permite usar una nueva gramática y vocabulario para hablar sobre por qué estos problemas son importantes y qué haremos para pensar y abordarlos a largo plazo", dijo Isaac. Cómo construir IA decolonial Png cree que realmente no hay "consecuencias no deseadas", solo consecuencias de los puntos ciegos que tienen las organizaciones y las instituciones de investigación si no están representadas de manera diferente.

En este sentido, los investigadores sugieren tres técnicas para lograr "descolonial" o "decolonial" de una manera más integradora y útil, AI:

Desarrollo técnico consciente del contexto. En primer lugar, los investigadores de IA que están construyendo un nuevo sistema deberían considerar dónde y cómo se usa. Su trabajo tampoco debe terminar con escribir el código, sino probarlo, respaldar políticas que faciliten su uso adecuado y organizar acciones contra las inapropiadas.

Instrucciones inversas. Segundo, deberían escuchar a los grupos marginados. Un ejemplo de esto es la práctica creciente del aprendizaje automático participativo, que trata de involucrar a los más afectados por los sistemas de aprendizaje automático en su diseño. Esto permite a los sujetos cuestionar y dictar cómo se presentan los problemas de aprendizaje automático, qué datos se recopilan, cómo y dónde se utilizan los modelos finales.

Solidaridad. Los grupos marginados también deberían recibir el apoyo y los recursos para iniciar su propio trabajo de IA. Ya hay varias comunidades de practicantes de IA marginados, incluidos Deep Learning Indaba, Black in AI y Queer in AI, y su trabajo debería ampliarse.

Desde la publicación de su trabajo, los investigadores han visto un interés y entusiasmo abrumadores. "Al menos me indica que hay susceptibilidad a este trabajo", dice Isaac. "Parece que esta es una conversación que la comunidad quiere entablar".

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *