Los investigadores están investigando las implicaciones éticas de la IA en entornos quirúrgicos.


Un nuevo libro blanco, escrito conjuntamente por investigadores del Vector Institute for Artificial Intelligence, examina la ética de la IA en la cirugía. Se encuentra que la cirugía y la IA tienen expectativas similares, pero difieren en términos de comprensión ética. Por supuesto, los cirujanos se enfrentan a dilemas morales y éticos, mientras que las condiciones del marco ético probablemente solo han tomado forma en la IA.

En cirugía, las aplicaciones de IA se limitan en gran medida a máquinas que realizan tareas que están completamente controladas por cirujanos. La IA también podría usarse en un sistema de soporte de decisiones clínicas, y bajo estas circunstancias, la responsabilidad recae en la máquina humana o el diseñador del sistema de IA, argumentan los coautores.

La protección de datos es una preocupación ética primaria. AI aprende a hacer predicciones a partir de grandes cantidades de datos, especialmente a partir de datos de pacientes en sistemas quirúrgicos, y a menudo se describe que está en conflicto con las prácticas de privacidad. La Fundación Royal Free London NHS Foundation, una división del Servicio Nacional de Salud del Reino Unido con sede en Londres, proporcionó a Alphabet DeepMind datos sobre 1,6 millones de pacientes sin su consentimiento. En cualquier caso, Google, cuya asociación para compartir datos de salud con Ascension en noviembre pasado fue objeto de una revisión en profundidad, anunció planes para publicar radiografías de tórax debido a preocupaciones de que contenía información de identificación personal.

Leyes de las autoridades estatales, locales y locales El nivel federal tiene como objetivo hacer que la protección de datos sea una parte obligatoria de la gestión del cumplimiento. Cientos de facturas relacionadas con la protección de datos, la seguridad cibernética y las infracciones de datos aún están pendientes o ya se han emitido en 50 estados, territorios de EE. UU. Y en el Distrito de Columbia. Probablemente, el más completo de todos, la Ley de Privacidad del Consumidor de California, se firmó legalmente hace aproximadamente dos años. Sin mencionar la Ley de Responsabilidad y Portabilidad del Seguro Nacional de Salud (HIPAA, por sus siglas en inglés), que requiere que las compañías obtengan aprobación antes de divulgar información de salud individual. Las condiciones marco internacionales, como el Reglamento General de Protección de Datos de la UE (GDPR), tienen como objetivo brindar a los consumidores un mejor control sobre la recopilación y el uso de datos personales.

Sin embargo, los autores del libro blanco argumentan que las medidas tomadas hasta ahora están limitadas por las interpretaciones de la jurisdicción y ofrecen modelos éticos incompletos. Por ejemplo, HIPAA se centra en los datos de salud de los registros de pacientes, pero no cubre las fuentes de datos que se generaron fuera de las compañías aseguradas, como las compañías de seguros de vida o las aplicaciones de la banda de ejercicios. Si bien la obligación de autonomía del paciente alude al derecho a explicar las decisiones de IA, las condiciones marco como el GDPR solo prescriben un "derecho a la información" y no parecen tener un lenguaje que contenga medidas de protección claramente definidas contra la toma de decisiones de AI.

Además, los coautores dan la alarma sobre los posibles efectos de la distorsión en los sistemas quirúrgicos de IA. La distorsión de los datos de entrenamiento, que afecta la calidad y la representatividad de los datos utilizados para entrenar un sistema de IA, podría afectar dramáticamente la estratificación del riesgo preoperatorio antes de la cirugía. La representación insuficiente de la demografía también puede conducir a evaluaciones imprecisas y decisiones incorrectas, p. B. si un paciente es tratado primero o se ofrecen recursos extensivos en la unidad de cuidados intensivos. Y los sesgos contextuales que se producen cuando se usa un algoritmo fuera del contexto de entrenamiento pueden hacer que un sistema ignore las reservas no triviales, p. B. si un cirujano es diestro o zurdo.

Existen métodos para reducir este sesgo, incluida la garantía de la variación en el conjunto de datos, la aplicación de la sensibilidad al sobreajuste de los datos de entrenamiento y la capacidad de que las personas nuevas examinen los datos nuevos a medida que se implementan. Los coautores apoyan ampliamente el uso de estas medidas y la transparencia para evitar que se perjudique la autonomía del paciente. "Una creciente dependencia de las herramientas automatizadas de toma de decisiones ya ha reducido la posibilidad de un diálogo significativo entre el proveedor de atención médica y el paciente", escriben. “Cuando el aprendizaje automático aún está en pañales, el subcampo responsable de hacer que su vida interior sea explicable es tan embrionario que incluso su terminología aún no es reconocible. Sin embargo, se han desarrollado algunas propiedades básicas de explicabilidad … [that argue] El aprendizaje automático debe ser simultáneo, descomponible y algorítmicamente transparente. "

A pesar de las deficiencias de la IA, particularmente las relacionadas con las operaciones, los coautores argumentan que el daño que la IA puede evitar supera las desventajas de la adopción. Por ejemplo, con la tiroidectomía existe el riesgo de hipoparatiroidismo permanente y lesión nerviosa recurrente. Con un nuevo método, se pueden requerir miles de intervenciones para observar cambios estadísticamente significativos que un solo cirujano nunca podrá ver, al menos no en poco tiempo. Un repositorio de análisis basados ​​en inteligencia artificial que resume estos miles de casos de cientos de ubicaciones podría identificar y comunicar estos patrones significativos.

“El avance tecnológico continuo en IA dará como resultado un rápido aumento en la amplitud y profundidad de sus casos. A partir de la curva de progreso, podemos predecir que las máquinas serán más autónomas ", escribieron los coautores. “El aumento de la autonomía requiere un mayor enfoque en el horizonte ético que tenemos que cuestionar. Al igual que la toma de decisiones éticas en la práctica actual, el aprendizaje automático no será efectivo si el comité lo diseña cuidadosamente; requiere la participación del mundo real. "

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *