Los investigadores quieren medir el impacto de datos médicos inexactos en las predicciones de IA


En un estudio publicado en el servidor de preimpresión Arxiv.org, los investigadores de la Universidad de Donghua y la Universidad de California en Santa Bárbara destacaron los peligros de los datos médicos inexactos en la entrega de IA y algoritmos de aprendizaje automático surgir. Descubren que los algoritmos de aprendizaje pueden realizar cálculos que están sujetos a influencias inciertas, lo que conduce a áreas de resultados que pueden conducir a un etiquetado incorrecto y un tratamiento inapropiado.

Las pruebas de laboratorio clínico juegan un papel importante en la asistencia sanitaria. Se estima que los resultados de las pruebas guían más del 70% de las decisiones y recetas médicas, desde el diagnóstico temprano hasta el diagnóstico de enfermedades. La disponibilidad de registros médicos parece hacer que la salud sea una adición natural a la IA y al aprendizaje automático. Sin embargo, debido a las limitaciones del equipo, instrumento, material y método de prueba, a menudo ocurren imprecisiones de datos (debido a reactivos, controles, calibradores y fallas del sistema de muestreo expiradas), lo que puede afectar la precisión de los sistemas de IA. Según un estudio de 2006, la prevalencia de errores de laboratorio puede ser de hasta uno cada 330 a 1,000 eventos, uno cada 900 a 2,074 pacientes o uno cada 214 a 8,316 resultados de laboratorio.

En un intento de cuantificar los efectos de la inexactitud en los resultados de un sistema de IA. El equipo diseñó un modelo para representar la inexactitud de los datos con un parámetro para controlar el grado de inexactitud . El modelo genera muestras inexactas para experimentos comparativos que pueden evaluarse utilizando un conjunto de medidas para determinar qué tan inconsistente es una predicción para un solo paciente. También identifica los desajustes de datos que resultan de predicciones inexactas.

En un experimento, los investigadores compararon los resultados de predicción de los datos en una base de datos médica con las predicciones correspondientes que se generaron a partir del modelo de inexactitud. Utilizaron un corpus para hipertiroidismo del Hospital Ruijin en Shanghai, que incluyó 2.460 registros de pacientes durante 2 a 10 años, para entrenar y probar el modelo de inexactitud, realizar cada experimento diez veces y promediar los resultados juntos.

El equipo informa estos datos: el modelo de inexactitud generado condujo a niveles pronosticados inusualmente bajos o inusualmente altos de anticuerpos del receptor de tirotropina y hormona estimulante de la tiroides, la hormona pituitaria que impulsa la glándula tiroides a producir tiroxina y triyodotironina estimulantes del metabolismo. "La etiqueta de predicción podría cambiar fácilmente de correcto a incorrecto o de incorrecto a correcto para estas áreas al hacer que los datos sean inexactos, lo que resulta en una disminución inestable", escriben. "El estudio contiene pautas directas para aplicaciones prácticas en el cuidado de la salud … Los motiva a desarrollar modelos robustos que pueden tener en cuenta las imprecisiones cuando se generaliza mejor".

Aunque los resultados del estudio pueden ser algo obvios, son otro punto de datos en El debate sobre el uso de la IA en la medicina. Google lanzó recientemente un libro blanco que encontró que un sistema de predicción de enfermedades oculares no es práctico en el mundo real, en parte debido a fallas tecnológicas y clínicas. STAT informa que los algoritmos de IA no comprobados se utilizan para predecir la disminución en pacientes con COVID-19. Y compañías como Babylon Health, que afirman que sus sistemas pueden diagnosticar enfermedades y médicos humanos, han sido examinadas por reguladores y médicos.

"El potencial de la IA está bien descrito, pero en realidad los sistemas de salud enfrentan una elección problemática: reducir significativamente el entusiasmo por el potencial de la IA en la práctica clínica diaria, o resolver problemas de propiedad y confianza de los datos y en la infraestructura de datos invierta para que esto suceda ", escribió el investigador del MIT Leo Anthony Celi y coautor de un reciente documento de estrategia que describe lo que llaman la" verdad incómoda "sobre la IA en la atención médica. "Sin esto, las oportunidades para la IA en la atención médica siguen siendo solo eso: oportunidades".

Deja una respuesta

Tu dirección de correo electrónico no será publicada.