Cómo está evolucionando la regulación de la IA en la industria de los seguros


Escuche a los CIO, CTO y otros ejecutivos senior y de nivel C sobre los datos y las estrategias de inteligencia artificial en la Cumbre sobre el futuro del trabajo el 12 de enero de 2022. Aprende más


A principios de esta semana, estuve en San Diego como orador e invitado en la reunión de la Asociación Nacional de Comisionados de Seguros (NAIC). Tuve la oportunidad de compartir algunos de mis propios puntos de vista y opiniones con el Grupo de Trabajo de Big Data e Inteligencia Artificial. También tuve la oportunidad de asistir a reuniones con partes interesadas clave involucradas en considerar los próximos pasos hacia la supervisión gubernamental de la IA.

2021 ha acelerado significativamente el interés y las actitudes regulatorias en torno al uso de la IA, tanto en los seguros como en general. Desde la promulgación de leyes por parte del Ayuntamiento de la ciudad de Nueva York para frenar los sesgos de la IA durante el proceso de contratación, hasta las Directrices de la Comisión Federal de Comercio sobre la creación y el uso de modelos de aprendizaje automático e inteligencia artificial responsable, las agencias gubernamentales de los Estados Unidos tienen un interés legítimo en regular la IA que se muestra. Para las compañías de seguros con participación europea, una actualización publicada recientemente de la ley de IA propuesta por Europa ahora clasifica específicamente el uso de IA por parte de la industria de seguros en la categoría de «alto riesgo».

En agosto de 2020, la NAIC presentó los principios de la IA. Durante el año pasado, la atención se centró en obtener más datos sobre exactamente dónde la industria de seguros utiliza la inteligencia artificial. La prioridad era tener una idea de cómo las regulaciones podrían afectar el uso de tecnologías de inteligencia artificial en la industria. Como parte del Grupo de Trabajo de Big Data, se proporcionó una primera visión pública de los resultados de una encuesta de las compañías de seguros de propiedad y accidentes y su uso de la inteligencia artificial. Los resultados muestran un uso generalizado de la inteligencia artificial en las funciones centrales de este grupo de compañías de seguros. Es probable que este grupo de trabajo amplíe la encuesta a propietarios de viviendas y líneas de seguros de vida en los próximos meses.

El desafío de regular la IA no es insignificante. Los reguladores deben conciliar la protección del consumidor con la promoción de la innovación. Con respecto a la perspectiva regulatoria sobre el uso de IA en seguros, se pueden identificar varios temas:

  • Darse cuenta de que la IA es un sistema complejo que resulta de las acciones, decisiones y datos de un equipo de partes interesadas durante todo el ciclo de vida de un sistema.
  • Entender que la regulación debe incluir evidencia de una gobernanza integral del ciclo de vida y revisiones objetivas de las prácticas clave de gestión de riesgos.
  • Existe acuerdo entre las autoridades supervisoras de que en gran medida no están equipadas para llevar a cabo las autoridades supervisoras estatales, investigaciones técnicas en profundidad o análisis forenses de los sistemas de inteligencia artificial. Para tener éxito en la supervisión regulatoria, necesitan capacitación, asociaciones con organizaciones más expertas y cierto nivel de responsabilidad certificada por el operador en el futuro.
  • Existe la posibilidad de que las regulaciones de definición y diseño de materiales tengan que forjarse a nivel federal, no solo a nivel estatal de los departamentos de seguros.

Mirando hacia atrás en mis conversaciones en San Diego, y durante todo el año, tengo un punto más para reflexionar: todos podríamos beneficiarnos de ser más directos. ¿Dónde comienza o termina la regulación específica de IA? ¿Cómo deberían cambiar fundamentalmente las compañías de seguros para brindar un mejor servicio a los sectores de nuestra población, a menudo desatendidos?

Mi carrera no estaba en seguros. Sin embargo, me di cuenta muy rápidamente de que muchas de las conversaciones sobre la justicia y el sesgo en los lugares de gobernanza de la IA no se limitan de ninguna manera a la gobernanza de la IA únicamente. En cambio, se trata de preguntas y consideraciones más amplias sobre la ponderación de los factores de evaluación de riesgos apropiados y la correlación que estos factores pueden tener con el trato justo de ciertas clases de nuestra población. Estoy 100% de acuerdo en que tenemos disparidades y desigualdades económicas y quiero ver mercados más inclusivos; Sin embargo, odiaría que las prácticas de gobernanza importantes y muy necesarias que mejoran los principios clave como la transparencia, la seguridad y la rendición de cuentas esperen acuerdos en lo que creo que son discusiones mucho más amplias y difíciles sobre la equidad.

He escuchado una y otra vez de los reguladores y representantes de la industria en San Diego que los seguros están experimentando un renacimiento tecnológico. Parece que todo el mundo está de acuerdo en que la regulación actual no es lo que necesitamos de la regulación en el futuro. En cierto sentido, fortalecer el enfoque de la NAIC en la IA mediante la creación de un nuevo «Comité de cartas» (H) de alto nivel, solo el octavo comité de este tipo en los 150 años de historia de la NAIC, es un reconocimiento tremendo de esa realidad.

El próximo año proporcionará más perspectivas sobre el enfoque de los reguladores de seguros para el uso de IA. Veremos cómo Colorado define aún más las prácticas y planes para SB21-169: Restricciones sobre el uso de datos externos del consumidor por parte de las aseguradoras. Es probable que veamos alguna política federal o desarrollo legislativo que incluso podría ser algo como HR 5596: la Ley de Justicia contra Algoritmos Maliciosos de 2021.

Ahora bien, ¿qué deberían hacer los transitarios con todas estas piezas móviles? Como mínimo, las aseguradoras deben organizar internamente a las partes interesadas clave relacionadas con la estrategia y el desarrollo de IA para evaluar conjuntamente cómo definen y desarrollan proyectos y modelos de IA. Si los remitentes aún no han establecido prácticas integrales de gestión de riesgos o gobernanza del ciclo de vida que se apliquen solo a sus sistemas de inteligencia artificial / aprendizaje automático, deben apresurarse a embarcarse en este viaje.

Anthony Habayeb es el director ejecutivo fundador de Monitaur, una compañía de seguros de gestión de inteligencia artificial y aprendizaje automático.

VentureBeat

La misión de VentureBeat es ser un mercado digital para que los tomadores de decisiones técnicas obtengan conocimientos sobre tecnologías y transacciones transformadoras. Nuestro sitio web proporciona información esencial sobre tecnologías y estrategias de datos para ayudarlo a administrar su organización. Lo invitamos a convertirse en miembro de nuestra comunidad para obtener acceso:

  • información actual sobre los temas de su interés
  • nuestros boletines
  • contenido de liderazgo intelectual cerrado y acceso con descuento a nuestros eventos galardonados, como Transformar 2021: Aprende más
  • Funciones de red y más

conviértete en miembro

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *