AI Weekly: las recomendaciones de la ONU señalan la necesidad de pautas éticas de AI
Escuche a los CIO, CTO y otros ejecutivos senior y de nivel C sobre los datos y las estrategias de inteligencia artificial en la Cumbre sobre el futuro del trabajo el 12 de enero de 2022. Aprende más
La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) adoptó esta semana una serie de recomendaciones sobre la ética de la IA destinadas a reconocer que la IA puede «ser de gran utilidad» pero también plantea «preocupaciones … fundamentales». Los 193 países miembros de la UNESCO, incluidos Rusia y China, acordaron realizar evaluaciones del impacto de la IA y utilizar «fuertes mecanismos de aplicación y medidas correctivas» para proteger los derechos humanos.
“El mundo necesita reglas para que la inteligencia artificial ayude a la humanidad. La recomendación[s] sobre la ética de la IA es una respuesta importante «, dijo la jefa de la UNESCO, Audrey Azoulay, en un comunicado de prensa. “Establece el primer marco normativo global y al mismo tiempo otorga a los estados la responsabilidad de aplicarlo a su nivel. La UNESCO apoyará a sus … estados miembros en la implementación y les pedirá que informen periódicamente sobre sus avances y prácticas «.
El documento de política de la UNESCO destaca los beneficios de la IA al tratar de reducir los riesgos asociados. Con ese fin, abordan temas como la transparencia, la responsabilidad y la protección de datos, así como la gestión de datos, la educación, la cultura, el trabajo, la atención médica y la economía.
«Las decisiones que afectan a millones de personas deben ser justas, transparentes y discutibles», dijo la directora general adjunta de Ciencias Sociales y Humanas de la UNESCO, Gabriela Ramos, en un comunicado. «Estas nuevas tecnologías deben ayudarnos a abordar los principales desafíos de nuestro mundo actual, como el aumento de las desigualdades y la crisis ambiental, y no a profundizarlos».
Las recomendaciones siguen las regulaciones propuestas de la Unión Europea que regulan el uso de IA en los 27 estados miembros del bloque. Prohíben el uso de sistemas de identificación biométrica en público, como el reconocimiento facial, con algunas excepciones. Y prohíben que la IA obtenga crédito social, inflija daño (por ejemplo, a las armas) y manipule el comportamiento subliminal.
Las recomendaciones de la UNESCO también prohíben expresamente el uso de la inteligencia artificial para la puntuación social y la vigilancia masiva y piden una protección de datos más sólida para brindar a los involucrados transparencia, la capacidad de actuar y el control de sus datos personales. Además, enfatizan que los usuarios de IA deberían preferir métodos eficientes de datos, energía y recursos para combatir el cambio climático y abordar los problemas ambientales.
Crecientes demandas de regulación
Si bien la política no es vinculante, el apoyo de China es significativo dada la postura histórica y actual del país sobre el uso de tecnologías de vigilancia de inteligencia artificial. Según el New York Times, el gobierno chino, que ha instalado cientos de millones de cámaras en todo el continente, ha probado el uso de tecnología predictiva para verificar los datos de transacciones, el historial de ubicaciones y las conexiones sociales de una persona para ver si lo están. violento. Empresas chinas como Dahua y Huawei han desarrollado tecnologías de reconocimiento facial, incluidas varias que apuntan a los uigures, una minoría étnica ampliamente perseguida en la provincia china de Xinjiang.
Los tratados de la ciudad de Zhoukou enfatizan que los funcionarios gastan tanto en vigilancia como en educación, y más del doble que en programas de protección ambiental.
Dada la intención expresa de China de monitorear el 100% del espacio público dentro de sus fronteras, parece poco probable que el curso se invierta, sean políticas de la UNESCO o no. Sin embargo, según Ramos, existe la esperanza de que las recomendaciones, en particular el énfasis en abordar el cambio climático, tengan un impacto en los tipos de tecnologías de IA que Empresas, pero también gobiernos, seguir.
«[UNESCO’s recommendations are] el código para cambiar el [AI sector’s] Modelo de negocio, más que nada ”, dijo Ramos a Politico en una entrevista.
Estados Unidos no forma parte de la UNESCO y no ha firmado las nuevas recomendaciones. Pero las prohibiciones de tecnologías como el reconocimiento facial se han acelerado a nivel local en los EE. UU. Las prohibiciones de reconocimiento facial estaban vigentes en al menos 16 estados, incluidos Washington, Massachusetts y Nueva Jersey, en julio. Los legisladores de California aprobaron recientemente una ley que requiere que los almacenes revelen los algoritmos y métricas que utilizan para rastrear a los trabajadores. La ley de la ciudad de Nueva York prohíbe a los empleadores usar herramientas de reclutamiento de inteligencia artificial a menos que una auditoría de sesgo muestre que no están discriminando. Y en Illinois, la Ley de Protección de la Información Biométrica del estado prohíbe a las empresas obtener y almacenar información biométrica de un individuo sin su consentimiento.
Independientemente de su impacto, las recomendaciones de la UNESCO señalan un reconocimiento cada vez mayor de la necesidad de pautas éticas de IA por parte de los políticos. El Departamento de Defensa de EE. UU. Publicó un documento técnico a principios de este mes que circuló entre la Administración Nacional Oceánica y Atmosférica, el Departamento de Transporte, los grupos de ética del Departamento de Justicia, la Administración de Servicios Generales y el Servicio de Impuestos Internos que decía: «Responsable … Directrices ”se esbozaron. Establecer los procesos que deberían «evitar consecuencias no deseadas» en los sistemas de IA. La OTAN publicó recientemente una estrategia de inteligencia artificial que describe los principios de la organización para el «uso responsable». [of] AI ”. Y el Instituto Nacional de Estándares y Tecnología de EE. UU. Está trabajando con universidades y el sector privado para desarrollar estándares de inteligencia artificial.
La regulación centrada en la responsabilidad y la transparencia podría contribuir en gran medida a restaurar la confianza en los sistemas de inteligencia artificial. Según una encuesta realizada por KPMG en cinco países (EE. UU., Reino Unido, Alemania, Canadá y Australia), más de un tercio del público dice que, en general, no quiere confiar en los sistemas de inteligencia artificial. Esto no es sorprendente, ya que el prejuicio en los sistemas de inteligencia artificial sin restricciones ha resultado en arrestos ilegales, tasas de reincidencia racista, reclutamiento sexista, calificaciones falsas en la escuela secundaria, generadores de habla abusivos y exclusivos y sistemas de reconocimiento de voz de bajo rendimiento, por nombrar algunas injusticias.
«Es hora de que los gobiernos reafirmen su papel de contar con regulaciones de buena calidad, incentivando el buen uso de la IA y reduciendo el uso indebido», continuó Ramos.
Si desea cubrir la IA, envíe consejos de noticias a Kyle Wiggers y suscríbase al boletín semanal de IA y marque nuestro canal de IA, The Machine.
Gracias por leer,
Kyle Wiggers
Autor de AI Staff
VentureBeat
La misión de VentureBeat es ser un mercado digital para que los tomadores de decisiones técnicas obtengan conocimientos sobre tecnologías y transacciones transformadoras. Nuestro sitio web proporciona información esencial sobre tecnologías y estrategias de datos para ayudarlo a administrar su organización. Lo invitamos a convertirse en miembro de nuestra comunidad para obtener acceso:
- información actual sobre los temas de su interés
- nuestros boletines
- contenido de liderazgo intelectual cerrado y acceso con descuento a nuestros valiosos eventos, como Transformar 2021: Aprende más
- Funciones de red y más
conviértete en miembro