AI Weekly: Un borrador para la regulación estatal de AI


los Las Cumbres de Transform Technology comienzan el 13 de octubre con Low-Code / Sin Code: Habilitación de la agilidad empresarial. ¡Únete ahora!


Los gobiernos enfrentan una serie de desafíos políticos relacionados con las tecnologías de inteligencia artificial, muchos de los cuales se ven agravados por la falta de información suficientemente detallada. Un libro blanco publicado esta semana por el especialista en ética de inteligencia artificial Jess Whittlestone y el ex director de políticas de OpenAI, Jack Clark, describe una solución potencial que implica invertir en las capacidades de los gobiernos para monitorear las capacidades de los sistemas de inteligencia artificial. Como señala el documento, la IA como industria produce de forma rutinaria una variedad de datos y acciones, y si los datos se sintetizaran, los conocimientos podrían mejorar la capacidad de los gobiernos para comprender las tecnologías y, al mismo tiempo, ayudar a desarrollar herramientas para intervenir.

«Los gobiernos deberían desempeñar un papel central en el establecimiento de iniciativas de medición y seguimiento por sí mismos, al tiempo que subcontratan otros aspectos, como la concesión de fondos o la asociación con instituciones de investigación», escriben Whittlestone y Clark. «Es probable que las versiones exitosas de este esquema tengan un enfoque híbrido, donde las decisiones clave y las direcciones de investigación las determinan los actores estatales y luego el trabajo lo realiza una combinación de gobiernos y terceros».

Whittlestone y Clark recomiendan que los gobiernos inviertan en iniciativas para estudiar aspectos de la investigación, la implementación y el impacto de la IA, incluido el análisis de los sistemas ya implementados para detectar posibles daños. Las agencias podrían desarrollar mejores formas de medir el impacto de los sistemas en los que estas medidas aún no se han implementado. Y podrían rastrear la actividad y el progreso en la investigación de IA utilizando una combinación de análisis, evaluaciones comparativas y datos de código abierto.

“La construcción de esta infraestructura probablemente tendrá que ser un proceso iterativo, comenzando con pequeños proyectos piloto”, escribieron Whittlestone y Clark. «[It would need to] evaluar la madurez técnica de las habilidades de IA relevantes para áreas específicas de interés político «.

Whittlestone y Clark imaginan que los gobiernos evalúan el panorama de la IA y utilizan sus hallazgos para financiar la creación de conjuntos de datos para llenar los vacíos de representación. Los gobiernos podrían trabajar para comprender la competitividad de un país en áreas clave de la investigación de la IA y organizar competencias para facilitar la medición del progreso. Además, las agencias podrían financiar proyectos para mejorar las metodologías de evaluación en ciertas áreas «comercialmente importantes». Además, los gobiernos podrían rastrear el uso de sistemas de inteligencia artificial para tareas específicas con el fin de rastrear, predecir y, en última instancia, prepararse mejor para el impacto social de estos sistemas.

“Seguimiento de casos concretos de daños a través de sistemas de IA a nivel nacional [would] mantener informados a los responsables de la formulación de políticas sobre el impacto actual de la IA, así como su posible impacto futuro a partir de los avances en la investigación ”, afirman Whittlestone y Clark. “Monitorear la adopción o el gasto de tecnología de IA en todos los sectores [would] los principales sectores para rastrear y administrar, así como información generalizable sobre cómo la tecnología de IA se puede usar en otros sectores. [And] Monitorear la proporción de insumos clave para el progreso de la IA que controlan varios actores (es decir, talento, recursos informáticos y los medios para producirlos, así como los datos relevantes) [would help to] comprender mejor qué actores tienen que regular los tomadores de decisiones políticas y dónde están los puntos de intervención «.

Progreso lento

Algunos gobiernos ya han tomado medidas para fortalecer la gobernanza y la supervisión de los sistemas de inteligencia artificial. Por ejemplo, los estándares propuestos por la Unión Europea para la IA someterían a los algoritmos de “alto riesgo” en las áreas de contratación, infraestructura crítica, evaluación crediticia, migración y aplicación de la ley a estrictas medidas de protección. Amsterdam y Helsinki han introducido «registros de algoritmos» que enumeran los conjuntos de datos utilizados para entrenar un modelo, una descripción de cómo se utiliza un algoritmo, cómo las personas utilizan la predicción y otra información complementaria. Y China está redactando reglas que requerirían que las empresas se adhieran a principios éticos y de equidad al usar algoritmos de recomendación en aplicaciones y redes sociales.

Pero otros esfuerzos, particularmente en los EE. UU., Han fallado y se han estancado para reparar los sistemas de inteligencia artificial defectuosos que conducen a decisiones inexactas, injustas, tendenciosas o discriminatorias que afectan a los ciudadanos estadounidenses.

Si los gobiernos optan por no supervisar la inteligencia artificial, Whittlestone y Clark predicen que los intereses del sector privado capitalizarán la falta de infraestructura de medición para implementar tecnología de inteligencia artificial con «externalidades negativas» y que los gobiernos carecerán de las herramientas disponibles para combatir esto. Como resultado, las asimetrías de información entre el gobierno y el sector privado podrían aumentar, desencadenando operaciones dañinas que sorprendan a los responsables de la formulación de políticas.

“Otros intereses intervendrán para llenar el vacío de información resultante; lo más probable es que el sector privado financie empresas para crear sistemas de medición y monitoreo que se dirijan a intereses comerciales estrechos en lugar de intereses civiles amplios ”, dijeron Whittlestone y Clark. «[This would] conducir a una legislación apresurada, imprecisa y desinformada «.

Si desea cubrir la IA, envíe consejos de noticias a Kyle Wiggers y suscríbase al boletín semanal de IA y marque nuestro canal de IA, The Machine.

Gracias por leer,

Kyle Wiggers

Autor de AI Staff

VentureBeat

La misión de VentureBeat es ser un mercado digital para que los tomadores de decisiones técnicas obtengan conocimientos sobre tecnologías y transacciones transformadoras. Nuestro sitio web proporciona información importante sobre tecnologías y estrategias de datos para ayudarlo a administrar su organización. Lo invitamos a convertirse en miembro de nuestra comunidad para obtener acceso:

  • información actualizada sobre los temas de su interés
  • nuestros boletines
  • contenido protegido de líderes de opinión y acceso con descuento a nuestros valiosos eventos, como Transformar 2021: Aprende más
  • Funciones de red y más

conviértete en miembro

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *