La IA en juicio: ¿quién es responsable cuando los algoritmos clínicos fallan?

Artículo Original: https://www.medscape.com/viewarticle/artificial-intelligence-trial-whos-liable-when-clinical-2026a10002tk

El problema

A medida que la inteligencia artificial (IA) se vuelve más común en la atención médica, se utiliza cada vez más para apoyar el diagnóstico, la predicción de riesgos y las decisiones terapéuticas. Cuando un sistema de IA contribuye a un error clínico o a un daño al paciente, surge una pregunta importante: ¿quién es legalmente responsable? Las leyes actuales no fueron diseñadas para la atención médica impulsada por IA, lo que deja incertidumbre sobre cómo debe asignarse la responsabilidad.

Quién podría ser considerado responsable

El artículo explica que los médicos seguirán asumiendo la mayor parte del riesgo legal, ya que se les considera los responsables finales de las decisiones clínicas, incluso cuando se apoyan en herramientas de IA. Los sistemas de salud también pueden enfrentar responsabilidad si no evalúan, supervisan o capacitan adecuadamente a los profesionales en el uso de sistemas de IA. Las empresas tecnológicas que desarrollan algoritmos clínicos suelen limitar su exposición legal mediante contratos, lo que dificulta responsabilizarlas, a menos que exista un defecto claro del producto.

Por qué la responsabilidad es complicada

La IA clínica involucra a múltiples actores, incluidos médicos, hospitales y desarrolladores de software. Los errores relacionados con la IA pueden tratarse como casos de mala praxis médica, responsabilidad por productos defectuosos o negligencia, según la situación. Dado que los tribunales tienen poca experiencia con este tipo de casos, es probable que las decisiones varíen y que aún no exista un estándar legal claro y consistente.

Por qué esto importa

La falta de claridad sobre la responsabilidad legal puede afectar la disposición de los médicos y los sistemas de salud a adoptar herramientas de IA. Si los profesionales temen ser considerados responsables por errores cometidos por algoritmos que no diseñaron, pueden mostrarse reacios a utilizarlos. Al mismo tiempo, los pacientes pueden enfrentar dificultades para exigir rendición de cuentas cuando ocurre un daño. Aclarar las normas de responsabilidad será fundamental a medida que la IA se integre cada vez más en la atención clínica.