AI Weekly: Watson Health y la conducción semiautónoma revelan los peligros de una IA demasiado prometedora


¿Te perdiste una sesión de la Cumbre sobre el Futuro del Trabajo? Visite nuestra biblioteca a pedido de Future of Work Summit para transmitir.


Esta semana, la realidad tocó la puerta de la IA, tanto para la tecnología de salud de IA como para los sistemas de conducción semiautónomos. IBM acordó vender los activos de su negocio Watson Health a la firma de inversión Francisco Partners después de que el desempeño de la división se desplomara. Mientras tanto, el Instituto de Seguros para la Seguridad en las Carreteras (IIHS), una organización sin fines de lucro financiada por la industria de seguros, anunció un nuevo programa de calificación diseñado para evaluar qué tan bien los sistemas de automatización «parciales» como el piloto automático de Tesla brindan protección para evitar el abuso.

Los dos desarrollos son emblemáticos del problema actual de la industria de la IA: reconocer las limitaciones de la IA. Jeffrey Funk y Gary Smith de Slate hacen un trabajo minucioso al resumir las predicciones de IA demasiado optimistas de los últimos años, incluida la declaración de Ray Kurzweil de que las computadoras serán inteligentes «a nivel humano» y «tendrán la capacidad de contar un chiste, gracioso». ser, ser romántico, ser amoroso, ser sexy» para 2029.

Como atestiguará cualquier experto, la IA está muy por debajo de la inteligencia humana, emocionalmente o de otra manera. (La nueva estimación de Kurzweil es 2045). Del mismo modo, los automóviles autónomos y la atención médica impulsada por IA no han alcanzado las alturas elevadas que alguna vez imaginaron los futuristas. Es una lección importante sobre cómo establecer expectativas (después de todo, el futuro no es fácil de predecir), pero también un ejemplo de cómo la búsqueda de ganancias supera el ciclo de exageraciones. Bajo la presión de mostrar el ROI, algunas empresas de tecnología de la salud y vehículos autónomos se han derrumbado bajo el peso de sus exageradas promesas, según muestran las noticias de esta semana.

Montando alto en la victoria de Watson contra ¡Peligro! El campeón Ken Jennings, IBM lanzó Watson Health en 2015, posicionando el conjunto de servicios impulsados ​​por IA como el futuro de la atención aumentada. El punto de venta de la compañía era que Watson Health podía analizar grandes cantidades de datos médicos, supuestamente mucho más rápido que cualquier médico humano. – para obtener información que mejore los resultados de salud.

Según se informa, IBM ha gastado $ 4 mil millones para reforzar su división Watson Health a través de adquisiciones, pero la tecnología ha demostrado ser ineficiente en el mejor de los casos y dañina en el peor. Un informe de STAT encontró que la plataforma a menudo brindaba consejos deficientes e inseguros sobre el tratamiento del cáncer porque los modelos de Watson Health se entrenaron con registros médicos sintéticos y defectuosos en lugar de datos de pacientes reales.

La desaparición de Watson Health se puede atribuir en parte a las prioridades cambiantes del CEO de IBM, Arvind Krishna, pero sin duda el creciente cinismo sobre las capacidades de atención médica de AI también jugó un papel. Los estudios han demostrado que casi todos los conjuntos de datos de enfermedades oculares provienen de pacientes en América del Norte, Europa y China, lo que significa que es menos seguro que los algoritmos utilizados para diagnosticar enfermedades oculares funcionen bien para grupos raciales de países subrepresentados. Una revisión de un algoritmo realizada por UnitedHealth Group encontró que la cantidad de pacientes negros que necesitan una mayor atención podría subestimarse a la mitad. Y un creciente cuerpo de trabajo sugiere que los algoritmos de detección de cáncer de piel tienden a ser menos precisos en pacientes negros, en parte porque los modelos de IA se entrenan principalmente en imágenes de pacientes caucásicos.

Los sistemas de conducción semiautónomos impulsados ​​por IA se enfrentarán a un escrutinio similar, especialmente a medida que los fabricantes de automóviles aceleran el lanzamiento de productos que afirman que casi pueden conducir un automóvil ellos mismos. En octubre de 2021, se ordenó a Tesla que entregara los datos a la Administración Nacional de Seguridad del Tráfico en Carreteras como parte de una investigación sobre colisiones entre los automóviles de la empresa y los vehículos estacionados. La sospecha era que el piloto automático de Tesla, ya sea parcial o completamente, era responsable del comportamiento peligroso.

No es una suposición irrazonable. A fines del año pasado, Tesla lanzó una actualización de Autopilot con un error que provocó que el sistema de frenado automático en Teslas se activara sin razón aparente. Esto provocó que los autos disminuyeran rápidamente la velocidad en la autopista, poniéndolos en riesgo de ser atropellados.

Tesla no es el único proveedor que ha tenido problemas para perfeccionar la tecnología de automóviles semiautónomos. Un estudio aleccionador de 2020 realizado por la Asociación Estadounidense del Automóvil encontró que la mayoría de los sistemas semiautónomos en el mercado, incluidos los de Kia y BMW, encontraron problemas cada ocho millas en promedio. Al encontrarse con un vehículo averiado, por ejemplo, los sistemas provocaron una colisión el 66 % de las veces.

En 2016, GM tuvo que retrasar el lanzamiento de su función Super Cruise debido a problemas no especificados. Ford retrasó recientemente su sistema BlueCruise para «simplificar» la ingeniería.

Lo que nos lleva a la noticia de esta semana: el programa de calificación del Instituto de Seguros para evaluar la protección de seguridad de los sistemas semiautónomos. El grupo espera alentar a los fabricantes de automóviles a presentar mejores diseños una vez que se publique este año el primer conjunto de calificaciones, actualmente en desarrollo.

«La forma en que funcionan muchos de estos sistemas les da a las personas la impresión de que son capaces de hacer más de lo que realmente son», dijo en un comunicado Alexandra Mueller, científica investigadora del Instituto de Seguros. “Pero incluso cuando los conductores entienden las limitaciones de la semiautomatización, sus mentes aún pueden divagar. Como humanos, es más difícil para nosotros mantenernos alerta cuando estamos observando y esperando que surja un problema que cuando manejamos todo nosotros mismos».

Eso es todo para decir que la IA, ya sea autónoma o de diagnóstico de enfermedades, es falible, al igual que las personas que la desarrollan. Visiones de A Supersónicos El futuro puede ser tentador, pero cuando hay vidas en juego, la historia ha demostrado que es mejor ser demasiado cauteloso.

Para obtener cobertura de IA, envíe consejos de noticias a Kyle Wiggers, y asegúrese de suscribirse al boletín semanal de IA y marque nuestro canal de IA, The Machine.

Gracias por leer,

kyle pelucas

Redactor sénior

VentureBeat

La misión de VentureBeat es ser un mercado digital para que los tomadores de decisiones tecnológicas aprendan sobre tecnologías y transacciones transformadoras. Nuestro sitio proporciona información esencial sobre tecnologías de datos y estrategias para ayudarlo a administrar sus organizaciones. Te invitamos a hacerte miembro de nuestra comunidad y acceder a:

  • información actualizada sobre los temas que son de su interés
  • nuestros boletines
  • Contenido exclusivo de Thought Leader y acceso con descuento a nuestros valiosos eventos, como Transformar 2021: Aprende más
  • funciones de red y más

convertirse en miembro

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *