Saltar al contenido

UHC acusado de usar IA para eludir órdenes médicas y negar reclamaciones

26/12/2023
Uhc Acusado De Usar Ia Para Eludir Ordenes Medicas Negar

Acusación a UHC de Emplear Inteligencia Artificial para Negar Reclamaciones de Pacientes

La última entidad en ser acusada de usar la inteligencia artificial para negar reclamos de pacientes es UnitedHealthcare (UHC). Se dice que la compañía ha sustituido las «recomendaciones de médicos reales» por un algoritmo defectuoso con el fin de ahorrar dinero.

En una demanda colectiva presentada esta semana en un tribunal de distrito de Minnesota, se afirma que UHC se basa en tecnología para negar sistemáticamente las reclamaciones de servicios de enfermería especializada (SNF) y eludir su deber de cumplir con los estándares de determinación de cobertura de Medicare.

Error 403 The request cannot be completed because you have exceeded your quota. : quotaExceeded

Consideraciones Éticas y Legales sobre el Uso de la IA en Salud

Este caso plantea preguntas éticas y legales sobre si la IA puede reemplazar o complementar las tareas e interacciones humanas, especialmente en un campo tan complejo como el cuidado de la salud.

nH Predict, un algoritmo defectuoso creado por naviHealth y adquirido por UnitedHealth Group, matriz de UHC, en 2020 es la herramienta que está bajo escrutinio. Según la demanda, esta herramienta tiene una tasa de error del 90%, evidenciada por la cantidad de reclamaciones que son revertidas tras ser revisadas por un profesional médico.

Clarkson Law, el bufete de abogados que representa a los demandantes, indica que debido a la deficiente IA de UHC, los asegurados tuvieron que pagar miles de costos de bolsillo o prescindir de la atención posaguda recomendada.

AI reemplazando a los profesionales de la salud

El modelo nH Predict determina la cantidad adecuada de servicios de SNF, atención domiciliaria, o rehabilitación que un paciente necesita basándose en su diagnóstico, edad y situación de vida. Sin embargo, el pleito sugiere que los empleados que no se adhieren estrictamente a las predicciones del modelo de IA son disciplinados y despedidos, incluso cuando se justifica un cuidado adicional para el paciente.

«Cada paciente tiene derecho a una evaluación matizada de sus necesidades de atención médica», afirmó Zarrina Ozari, asociada senior en Clarkson Law Firm. «Al reemplazar a los profesionales con IA sin control, UHC está diciendo a sus pacientes que son completamente intercambiables entre sí e infravalorando la experiencia de los médicos dedicados a elementos clave del cuidado».

Casos de Negativa a la Cobertura Basada en AI

El caso es representativo de la problemática donde la IA sustituye la decisión médica, destacando dos casos particulares donde fallecieron los asegurados luego de pagar grandes sumas de dinero personal debido a la negación de servicios de atención a largo plazo basada en decisiones de IA.

Dichos casos ilustran un creciente problema ético relacionado con la creciente dependencia de la Inteligencia Artificial en la medicina. Nuevas normas federales prohíben a los planes de Medicare Advantage confiar en un algoritmo o software para tomar decisiones médicamente necesarias en lugar de las circunstancias específicas de un individuo.

Clarkson exige un juicio con jurado y ha pedido al tribunal que certifique el caso como una acción colectiva federal. Podría abrir el camino para cualquier residente de EE. UU. que haya adquirido un plan Medicare Advantage de UHC en los últimos 4 años.

LEE MÁS ARTÍCULOS SOBRE: Salud con IA.

LEE LA ENTRADA ANTERIOR: Organizaciones de salud se comprometen con la orden ejecutiva de IA de la administración de Biden.