Saltar al contenido

La precisión del clínico se ve afectada por la IA sesgada, incluso con mitigación, según un estudio.

26/12/2023
La Precisión Del Clínico Se Ve Afectada Por La Ia Sesgada, Incluso Con Mitigación, Según Un Estudio.

Los clínicos ven disminuir su precisión por la IA sesgada, incluso con mitigación, encuentra el estudio

La Inteligencia artificial puede beneficiar la precisión diagnóstica de los clínicos, aunque los modelos sesgados pueden dañarla — y el intentar explicar la lógica de la tecnología no ayudó a los proveedores a mitigar posibles errores, de acuerdo a un estudio reciente publicado en JAMA.

Resumen del estudio:

El estudio encontró que un modelo de IA mejoró la precisión de los clínicos al examinar los historiales de pacientes hospitalizados con insuficiencia respiratoria aguda. Esta precisión aumentó aún más cuando los clínicos utilizaron modelos de IA junto con explicaciones de la tecnología. Sin embargo, un modelo sistemáticamente sesgado disminuyó la precisión diagnóstica de los clínicos, y las explicaciones sobre el razonamiento del modelo no les ayudaron significativamente a mejorar, según el estudio.[automatic_youtube_gallery type="search" search="La precisión del clínico se ve afectada por la IA sesgada, incluso con mitigación, según un estudio." cache="2419200" per_page="1" thumb_excerpt="0" player_description="0"]

Hallazgo profundo:

La inteligencia artificial tiene el potencial de ayudar a los profesionales de la salud a encontrar anomalías en los resultados de las imágenes y a analizar los datos de los pacientes para encontrar patrones y hacer predicciones sobre los resultados. El uso de la tecnología se ha convertido en un tema cada vez más popular en el sector de la salud, ya que los expertos y los responsables de las políticas intentan sopesar los beneficios junto con los riesgos, como la introducción de recomendaciones sesgadas que podrían ampliar aún más las desigualdades en salud.

Los modelos sistemáticamente sesgados, es decir, los modelos que constantemente arrojan un diagnóstico equivocado en algunas subpoblaciones de pacientes, podrían provocar errores o daños a los pacientes, señala el estudio. Por ejemplo, un modelo que se entrena con datos donde las mujeres son frecuentemente sub-diagnosticadas con enfermedades del corazón podría ser inexacto una vez que se pone en marcha.

La importancia de las explicaciones del modelo de IA

Idealmente, los proveedores de salud podrían ignorar los modelos si estos parecen incorrectos, y las explicaciones se han presentado como una forma de ayudarlos a comprender el razonamiento del modelo antes de actuar en base a sus recomendaciones. Las orientaciones de la Administración de Alimentos y Medicamentos han resaltado el valor de las explicaciones para mejorar la interpretabilidad, según los investigadores.

Sin embargo, el estudio de JAMA encontró que las explicaciones podrían no ser suficientes para mitigar el daño. El estudio mostró a médicos de hospital, enfermeras y asistentes de médicos nueve viñetas clínicas de pacientes hospitalizados con insuficiencia respiratoria aguda, incluyendo síntomas, exámenes físicos, resultados de laboratorio y radiografías de tórax. A continuación, se les pidió que determinaran la probabilidad de neumonía, insuficiencia cardiaca o enfermedad pulmonar obstructiva crónica. Algunas viñetas incluían modelos de IA con explicaciones basadas en imágenes para describir su lógica.

Desafíos de la alfabetización de IA en clínicos

La alfabetización de los clínicos en IA podría ser un reto para evitar las recomendaciones sesgadas, según los autores del estudio. Casi el 67% de los participantes no sabían que los modelos podrían ser sistemáticamente sesgados.

También podrían necesitar más experiencia y formación con las explicaciones. Y el uso de imágenes podría ser una mala manera de describir lo que el modelo está haciendo, y otros métodos, como las descripciones de texto, podrían ser más útiles, según los investigadores.