Saltar al contenido

IA en la atención médica ‘espada de doble filo’, puede engañar a los médicos con datos

30/12/2023
Ia En La Atencion Medica ‘Espada De Doble Filo Puede

La Inteligencia Artificial en la salud: un arma de dos filos?

Los modelos de IA en cuidado de la salud: una doble consecuencia

Los modelos de IA aplicados en el sector salud tienen características de doble filo. Estos pueden mejorar las decisiones diagnósticas para determinados grupos demográficos, pero al mismo tiempo pueden empeorar las decisiones para otros, especialmente cuando el modelo ha absorbido datos médicos sesgados, confirma un estudio.

Cómo asegurar que los modelos de IA son seguros y confiables

Ante los riesgos vitales asociados a la toma de decisiones clínicas, investigadores y legisladores están tomando medidas para garantizar que los modelos de IA sean seguros, confiables y dignos de confianza, procurando que su uso conlleve a resultados mejorados. Sin embargo, el nuevo estudio, publicado en JAMA, encuentra que inclusive con explicaciones proporcionadas por la IA, los clínicos pueden ser engañados por modelos de IA sesgados.

Error 403 The request cannot be completed because you have exceeded your quota. : quotaExceeded

“El problema es que el clínico debe entender lo que la explicación está comunicando y la propia explicación”, dijo Sarah Jabbour, candidata a doctorado en ciencia y ingeniería informática en la Facultad de Ingeniería de la Universidad de Michigan.

El equipo investigó modelos de IA y explicaciones de IA en pacientes con insuficiencia respiratoria aguda.

Dificultades para determinar la causa de la insuficiencia respiratoria

“Determinar por qué un paciente tiene falla respiratoria puede ser difícil. En nuestro estudio, encontramos que la precisión diagnóstica inicial de los médicos ronda alrededor del 73%”, dijo Michael Sjoding, Profesor Asociado de medicina interna en la escuela médica de la universidad.

El equipo diseñó un estudio para evaluar la precisión diagnóstica de 457 médicos de hospitales, enfermeras y asistentes de médicos con y sin la ayuda de un modelo de IA.

Cada clínico fue requerido para hacer recomendaciones de tratamiento basadas en sus diagnósticos. La mitad fueron seleccionados al azar para recibir una explicación de IA con la decisión del modelo de IA, mientras que la otra mitad solo recibió la decisión de la IA sin explicación.

Los clínicos recibieron entonces casos clínicos reales de pacientes con falla respiratoria, además de una calificación del modelo de IA sobre si el paciente tenía neumonía, falla cardíaca o enfermedad pulmonar obstructiva crónica (EPOC).

A la mitad de los participantes que se les asignó al azar para ver las explicaciones, se les proporcionó un mapa de calor, o representación visual, de donde el modelo de IA estaba “observando” en la radiografía de tórax, que servía como la base para el diagnóstico.

El equipo encontró que los clínicos a quienes se les presentó un modelo de IA capacitado para hacer predicciones razonablemente precisas, pero sin explicaciones, tuvieron su propia precisión incrementada en 2.9 puntos porcentuales. Cuando se les proporcionó una explicación, su precisión incrementó en 4.4 puntos porcentuales.

Fuente: IANS

LEE MÁS ARTÍCULOS SOBRE: Salud con IA.

LEE LA ENTRADA ANTERIOR: A prueba de futuro tu negocio: Aprovechando las predicciones de Bill Gates para 2024.