Saltar al contenido

Diversidad de Datos y Personal es Crítico para Prevenir el Sesgo en la IA de Atención Médica

30/12/2023

El empleo de la Inteligencia Artificial para mejorar los resultados de la salud alberga una gran expectativa, pero representantes del Congreso y testigos en Capitol Hill alertaron recientemente sobre cómo esta tecnología emergente puede introducir sesgos si no se recurre a datos diversos y a un team de adiestramiento en aprendizaje reforzado que asista en la formación de modelos de IA.

IA tan buena como la información que recibe

La IA sólo es tan eficiente como la información con la que se alimenta, ya que esta tecnología se apoya significativamente en la calidad de los datos de entrenamiento que enseñan a los modelos de IA a tomar decisiones, según los expertos que testificaron ante un subcomité de Salud, Educación, Labor y Pensiones del Senado el pasado miércoles.

Error 403 The request cannot be completed because you have exceeded your quota. : quotaExceeded

La IA y el problema de la diversidad

El Senador Ben Ray Luján afirmó: «Parece que la IA tiene un problema de diversidad. Necesitamos tecnología para mejorar los resultados de la salud, reducir las disparidades sanitarias – no agravarlas – y está claro que la IA tiene el potencial de hacer ambas cosas, esto me lleva a la conclusión de que la IA solo es tan buena como los datos que recibe.»

Por ejemplo, mencionó estudios que descubrieron que la IA entrenada con radiografías de tórax de pacientes varones, tiene un desempeño deficiente cuando un médico la aplica a una paciente mujer. Además, una IA diseñada para el diagnóstico de cáncer de piel fallará el diagnóstico si el paciente es de piel oscura y la mayoría de las imágenes de entrenamiento provienen de pacientes de piel clara.

La diversidad de datos

El Dr. Kenneth Mandl, profesor en Harvard Medical School y director del Boston Children’s Hospital Computational Health Informatics Program, concordó en que existe un problema de diversidad de datos.

La importancia de la interoperabilidad de los datos

El Dr. Mandl destacó la importancia de la diversidad de datos y la interoperabilidad de datos en los sistemas de salud, para que no sean sólo «los sistemas de salud de alto rendimiento y adinerados los que tienen equipos en sus departamentos de TI capaces de extraer datos y ponerlos a disposición.”

Simultáneamente, el Dr. Mandl indicó un paso menos conocido en el proceso de desarrollo del algoritmo que podría limitar la diversidad en los grandes modelos de lenguaje.

“Los modelos se entrenan más después de haber sido desarrollados con los datos, que ya pueden carecer de diversidad. Se entrenan con algo llamado ‘reforzamiento del aprendizaje con retroalimentación humana’, donde las personas indican a la IA si estaba en lo correcto o no al responder ciertas preguntas”, explicó el Dr. Mandl.

“Por lo tanto, realmente necesitamos una diversidad de personal que esté realizando el aprendizaje reforzado también, para que obtengamos la combinación correcta de múltiples perspectivas”, agregó. “Se ha demostrado una y otra vez que la falta de diversidad en los datos conduce a conclusiones sesgadas que no benefician bien a toda la población.”

Entrenamiento temprano con datos y personal diverso

El Dr. Mandl también incidió en que es mejor entrenar estos modelos con datos y personal diverso en las etapas iniciales, para que los modelos se desarrollen con menos sesgo desde el principio. “Ese sesgo puede arraigarse y ser más difícil de corregir más tarde”, señaló.

Del mismo modo, el Dr. Thomas Inglesby, director del Johns Hopkins Center for Health Security, dijo a los senadores que para obetner los beneficios de la IA para la salud, deben enfrentarse a los riesgos.

“La IA ofrece grandes beneficios potenciales para la atención médica y la salud pública”, afirmó el Dr. Inglesby . “Sin embargo, para percibir estos beneficios, es crucial abordar los posibles riesgos muy serios. Los desarrolladores de IA podrían introducir sesgos inadvertidamente en los modelos relacionados con la salud.”

Para afrontar este riesgo, recomendó que las entidades que desarrollan modelos con riesgos de doble uso significativos deben ser requeridos para someter sus modelos a un equipo rojo y evaluarlos. Además, propuso que el Congreso asigne a una agencia la tarea de auditar estos modelos y presentar un informe al Congreso «con recomendaciones para nuevas autoridades que serán necesarias por parte de la agencia para tomar las acciones correctivas apropiadas.”

“El Congreso debe perseguir estas medidas de una manera que permita a los desarrolladores de IA y científicos continuar persiguiendo vigorosamente los muchos usos muy positivos de la IA para mejorar la salud humana”, concluyó.

LEE MÁS ARTÍCULOS SOBRE: Salud con IA.

LEE LA ENTRADA ANTERIOR: Con Inteligencia Artificial, ¿no se necesita experiencia para Echo?.