Los grupos de ética de la IA repiten uno de los errores clásicos de la sociedad.


Las organizaciones y empresas internacionales se esfuerzan por desarrollar pautas globales para el uso ético de la inteligencia artificial. Declaraciones, manifiestos y recomendaciones inundan Internet. Sin embargo, estos esfuerzos no tendrán éxito si no tienen en cuenta los contextos culturales y regionales en los que opera la IA.

Se ha demostrado repetidamente que los sistemas de inteligencia artificial causan problemas que afectan de manera desproporcionada a los grupos marginados y solo benefician a unos pocos privilegiados. Los esfuerzos globales sobre la ética de la IA que se están llevando a cabo hoy en día, hay docenas de ellos, tienen como objetivo ayudar a todos a beneficiarse de esta tecnología y evitar que cause daños. En general, crean pautas y principios que los desarrolladores, financiadores y reguladores deben seguir. Por ejemplo, podría recomendar auditorías internas de rutina o solicitar protección para los datos personales de los usuarios.

Creemos que estos grupos tienen intenciones bien intencionadas y están haciendo un trabajo valioso. De hecho, la comunidad de la IA debería acordar una serie de definiciones y conceptos internacionales para la IA ética. Sin embargo, sin una representación geográfica más sólida, desarrollarán una visión global de la ética de la IA que refleje las perspectivas de las personas en solo unas pocas regiones del mundo, particularmente en América del Norte y el noroeste de Europa.

Este trabajo no es fácil ni sencillo. "Equidad", "privacidad" y "sesgo" significan cosas diferentes (pdf) en diferentes lugares. Las expectativas de la gente sobre estos conceptos también dependen de sus propias realidades políticas, sociales y económicas. Los desafíos y riesgos de la IA también difieren según la ubicación.

Si las organizaciones que trabajan en la ética global de la IA no reconocen esto, corren el riesgo de desarrollar estándares que, en el mejor de los casos, carecen de sentido e ineficaces en todas las regiones del mundo. En el peor de los casos, estos estándares defectuosos conducirán a más sistemas y herramientas de inteligencia artificial que mantienen los prejuicios y son insensibles a las culturas locales.

Por ejemplo, en 2018 Facebook tardó en responder a la difusión de información errónea en Myanmar que finalmente condujo a abusos contra los derechos humanos. Una revisión pagada por la empresa (pdf) encontró que esta supervisión se debió en parte a las pautas de moderación de contenido y comunidad de Facebook, que no tomaron en cuenta las realidades políticas y sociales del país.

En muchos países hay una clara falta de diversidad regional en las juntas asesoras, los órganos de expertos y los consejos de IA.

Para evitar tales abusos, las empresas que trabajan en pautas éticas para los sistemas y herramientas de IA deben involucrar a usuarios de todo el mundo a fin de crear estándares apropiados para la gobernanza de estos sistemas. También deben ser conscientes de cómo se aplican sus directrices en diferentes contextos.

A pesar de los riesgos, existe una clara falta de diversidad regional en muchas de las juntas asesoras, órganos de expertos y consejos de AI designados por las principales organizaciones internacionales. Por ejemplo, el grupo de expertos del proyecto AI for Children de Unicef ​​no tiene representantes de las regiones con la mayor concentración de niños y adultos jóvenes, incluidos Oriente Medio, África y Asia.

Desafortunadamente, todo el campo de la ética de la IA corre el gran riesgo de limitarse a idiomas, ideas, teorías y desafíos de un puñado de regiones, especialmente América del Norte, Europa Occidental y Asia Oriental.

Esta falta de diversidad regional refleja el enfoque actual de la investigación de IA (pdf): el 86% de los artículos publicados en las conferencias de IA en 2018 se atribuyeron a autores en Asia oriental, América del Norte o Europa. Y menos del 10% de las referencias enumeradas en los artículos de IA publicados en estas regiones son a artículos de otra región. Las patentes también están muy concentradas: el 51% de las patentes de IA publicadas en 2018 se atribuyeron a América del Norte.

Aquellos de nosotros que trabajamos en la ética de la IA haremos más daño que bien si permitimos que la falta de diversidad geográfica del campo defina nuestros propios esfuerzos. Si no tenemos cuidado, podríamos codificar los prejuicios históricos de la IA en pautas que sesguen la tecnología para las generaciones venideras. Necesitamos comenzar a priorizar los votos de los países de ingresos bajos y medios (especialmente del “sur global”) y de las comunidades históricamente marginadas.

Los avances en la tecnología a menudo han ayudado a Occidente al tiempo que exacerbaban la desigualdad económica y la opresión política. y degradación ambiental en otros lugares. Incluir países no occidentales en la ética de la IA es la mejor manera de evitar que se repita este patrón.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *