Si la IA nos va a ayudar en una crisis, necesitamos un nuevo tipo de ética


¿Qué opciones perdimos porque no implementamos estos procedimientos?

Es fácil exagerar lo que es posible, y la IA probablemente nunca jugaría un papel importante en esta crisis. Los sistemas de aprendizaje automático no son lo suficientemente maduros.

Sin embargo, hay un puñado de casos en los que la IA está siendo probada para diagnóstico médico o para la distribución de recursos entre hospitales. Podríamos haber podido usar este tipo de sistema a mayor escala para reducir la carga sobre la atención médica si se hubiera desarrollado desde una perspectiva ética.

Especialmente al asignar recursos, usted decide qué pacientes son la máxima prioridad. Necesita un marco ético incorporado antes de usar AI para ayudarlo a tomar tales decisiones.

Entonces, ¿la ética para la urgencia es simplemente un llamado a mejorar la ética de la IA existente?

Eso es parte de eso. El hecho de que no tengamos procesos sólidos y prácticos para la ética de la IA complica la situación en un escenario de crisis. En tiempos como estos, sin embargo, también existe una mayor necesidad de transparencia. La gente habla mucho sobre la falta de transparencia en los sistemas de aprendizaje automático como una caja negra. Sin embargo, existe otro tipo de transparencia con respecto al uso de los sistemas.

Esto es particularmente importante en una crisis cuando los gobiernos y las organizaciones toman decisiones urgentes que implican compromiso. ¿De quién es la salud que priorizas? ¿Cómo se salvan vidas sin destruir la economía? Cuando se usa una IA en las decisiones públicas, la transparencia es más importante que nunca.

¿Qué tiene que cambiar?

Tenemos que ver la ética de manera diferente. No debería ser algo que suceda de forma lateral o posterior, algo que te frene. Debería ser parte de cómo construimos estos sistemas: ética a través del diseño.

A veces pienso que "ética" es la palabra equivocada. Decimos que los investigadores e ingenieros de aprendizaje automático deben estar capacitados para pensar sobre el impacto de su construcción, ya sea que estén haciendo una investigación básica, cómo diseñar un nuevo algoritmo para el refuerzo del aprendizaje o algo más práctico como desarrollar una aplicación de salud. ¿Cómo se vería si su trabajo llegara a productos y servicios reales? ¿Qué problemas podría plantear?

Algunos de ellos ya han comenzado. Trabajamos con algunos investigadores de IA en sus primeras carreras y les hablamos sobre cómo pueden incorporar esta mentalidad en su trabajo. Es un pequeño experimento para ver qué pasa. Pero incluso NeurIPS [a leading AI conference] ahora pide a los investigadores que incluyan una declaración al final de su trabajo que explique el posible impacto social de su trabajo.

Dijiste que necesitamos personas con experiencia técnica en todos los niveles de diseño y uso de IA. ¿Porqué es eso?

No estoy diciendo que la experiencia técnica sea el principio y el fin de la ética, pero es una perspectiva que necesita ser representada. Y no quiero parecer que diría que toda la responsabilidad recae en los investigadores, ya que muchas decisiones importantes sobre cómo se usa la IA son tomadas más arriba en la cadena por la industria o los gobiernos.

Pero me preocupa que las personas que toman estas decisiones no siempre entiendan completamente cómo las cosas pueden salir mal. Por lo tanto, debe involucrar a personas con experiencia técnica. Nuestra intuición sobre lo que la IA puede y no puede hacer no es muy confiable.

Lo que necesita en todos los niveles de desarrollo de IA son personas que realmente entienden los detalles del aprendizaje automático para trabajar con personas que realmente entienden la ética. Sin embargo, la colaboración interdisciplinaria es difícil. Las personas con diferentes especialidades a menudo hablan de cosas de diferentes maneras. Lo que un investigador de aprendizaje automático entiende por protección de datos puede ser muy diferente de lo que un abogado entiende por protección de datos, y puede suceder que las personas se crucen. Por lo tanto, es importante que estos diferentes grupos se acostumbren a trabajar juntos.

Están presionando para una revisión institucional y cultural bastante grande. ¿Qué te hace pensar que la gente quiere hacer esto en lugar de crear comités de ética o comités de supervisión, lo que siempre me hace suspirar un poco porque tienden a ser inofensivos?

Sí, yo también suspiro. Pero creo que esta crisis está obligando a las personas a reconocer la importancia de las soluciones prácticas. En lugar de decir: "Oh, tengamos este tablero y este tablero", tal vez la gente dirá: "Tenemos que hacerlo y tenemos que hacerlo bien".

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *