ISSN-e: 2745-1380

Buscar
Cerrar este cuadro de búsqueda.

¿Quién responde en salud por los daños causados por la IA? Implicaciones legales de la responsabilidad civil

Sara Jones de 2 años de edad, requiere una cirugía para corregir defectos congénitos de su corazón en el hospital de Great Ormond Street en Londres, allí el cirujano a cargo del procedimiento utiliza la ciencia de datos, la inteligencia artificial -IA- y la simulación en el metaverso interactuando con sus signos vitales mediante la herramienta llamada gemelo virtual  -human digital twin HDT- en tiempo real, el cual consiste en una réplica exacta de la paciente, y de su corazón, que en 3 dimensiones le permite explorar e intentar un número infinito de veces el abordaje quirúrgico hasta verificar las mejores decisiones en el quirófano, y conocer la posibles complicaciones antes de realizarlas en su cuerpo.

El uso de estas herramientas dotadas de IA, en el sector salud redunda en minimizar las eventualidades y las emergencias médicas brindando verdaderos estándares personalizados de atención, e incluso constituyen para el personal médico un pre-saber de tal magnitud que pueden sopesar con un alto rango de exactitud, nunca antes visto, las reacciones de los pacientes en tiempo real a la par que estas simulaciones arrojan importante información sobre las vías de abordaje, el cuidado perioperatorio y los efectos del procedimiento programado.

La responsabilidad civil y la I.A.

Casos como este, y algunos más cercanos como el diagnóstico por imágenes utilizando la IA, están siendo utilizados y se espera aumenten velozmente en el sector de la salud, por cuyo uso plantea la siguiente pregunta ¿Cuál es el impacto que tiene la IA, en la responsabilidad médico legal?

No existen y no es posible concebir una sociedad sin daños, mucho menos con la amplia intervención en tecnología que supone que las maquinas dotadas de I.A., aprendan e imiten de acuerdo con su programación determinadas tareas mediante un sistema complejo de red neuronal artificial, lo cual en modo alguno las hace infalibles, alguna de ellas con un poder decisorio amplio bajo el cual con toda y la supervisión humana ostentan una autonomía e independencia determinante en la toma de decisiones vitales, como diagnosticar un cáncer o en realizar las tareas propias a cargo del robot quirúrgico o el que va más allá de la dispensación de medicamentos y realiza formulas magistrales de medicamentos oftálmicos.

En este sentido, toda reflexión sobre la responsabilidad civil en materia sanitaria por regla general parte del análisis conductual de los profesionales de la salud y el reproche que de la misma guarda relación con los daños y perjuicios causados al paciente y a sus cercanos, en un fundamento que se conoce como subjetivo porque parte de la culpa como un defecto bajo la calificación de negligente, imprudente o imperita de la misma. Sin embargo, a la par y en el escenario de la responsabilidad patrimonial del Estado en materia sanitaria opera otro fundamento que prescinde de esta valoración conductual, y por lo tanto es objetiva, pues reside en la teoría del riesgo alea frente a las infecciones intrahospitalarias del paciente, las cuales bajo tal teoría no está en la obligación de soportar cuando las ha adquirido durante su paso por las instituciones de salud. Para el Consejo de Estado Colombiano (2014) este daño por las infecciones adquiridas durante la instancia hospitalaria del paciente debe ser reparado prescindiendo del concepto de falla del servicio por “la concreción de un riesgo que es conocido por la ciencia médica, pero que se torna irresistible en tanto su concreción depende, muchas veces, de la ineludible mediación del azar”.

Esto también te puede interesar  Muerte digna, zonas grises y regulación en Colombia: Una guía para el talento humano en salud

En pocas palabras, siendo evidente que el uso de las maquinas dotadas con IA, representan beneficios de apoyo al sector de la salud, lo relevante gira en torno a quien debe asumir el costo de las reparaciones de los daños por la introducción de esta tecnología en nuestro diario vivir, bien sea porque su defectuoso funcionamiento haya sido consecuencia del obrar culposo humano en su diseño, programación, operación y/o mantenimiento, o bien porque simplemente al margen de lo anterior, suele presentarse la contingencia propia y común de fallar de toda maquina, y que constituye el riesgo intrínseco de su funcionamiento.

Al respecto, en nuestro ordenamiento jurídico las maquinas, robots y demás herramientas tecnológicas dotadas con la IA, se consideran productos, de tal suerte que frente a su defectuoso funcionamiento y daños es aplicable el Estatuto del Consumidor -Ley 1480 de 2011-, bajo el cual se protege al consumidor-víctima, relevándosele de demostrar la culpa de todos los intervinientes en la cadena de consumo -productor, comercializador y distribuidor-, y por lo tanto, puede exigir frente a ella la protección de sus derechos lesionados demostrando únicamente la falta de idoneidad y/o defecto del producto o servicio y la relación de esta con su daño.

Debido a esa flexibilización a favor de las víctimas, en el panorama actual, los desarrolladores de la IA, proponen hacer descansar las reclamaciones por la responsabilidad civil en fondos y patrimonios de terceros, y para tal efecto promueven el reconocimiento de algunos derechos o la personalidad jurídica de sus robots, conocida como “personalidad electrónica”, cuyos titulares no sean esos patrimonios tradicionalmente llamados a asumir el pago de los daños cada vez más probables por su uso extendido, al punto que cada vez más adoptan decisiones éticamente cuestionables, que implican lesiones a los derechos de las personas y/o por cuya utilidad resulta cada vez más imprescindible su uso, como ocurre en los robots que dispensan medicamentos o en los vehículos dotados de sistemas de  conducción autónoma.

A la par de lo anterior, se promueve la protección mediante seguros obligatorios y fondos económicos para asumir los resultados indeseados de la nueva tecnología, de tal suerte que a nivel internacional el 07 de diciembre de 2023 la Unión Europea legisló sobre el uso de la inteligencia artificial estableciendo los limites aplicables a partir de 2026, dejando claro que su uso debe ceñirse a la transparencia en el manejo de datos personales, y le señala límites principalmente el de no aplicarla indiscriminadamente para no incurrir en riesgos injustificados que atenten en contra de los derechos fundamentales, punto que resulta trascendental teniendo en cuenta que en el sector salud se encuentran involucrados los bienes jurídicos de más alto valor como  la vida, la integridad personal y la libertad decisoria, frente a los cuales cada vez existe más divulgación, y por lo tanto conocimiento y exigibilidad por parte de los pacientes.

Al margen de estas soluciones, el derecho vigente sigue siendo útil y relevante para resolver los problemas que conlleva la apertura hacia nuevas tecnologías y sus consecuentes nuevos daños, incluyendo los límites que la legislación internacional nos proporciona a modo de guía frente a los resultados disruptivos y no siempre deseados de la IA, en la actividad médica, siendo totalmente necesario el mejoramiento continuo en aquellas actividades que requieren una sinergia entre el talento humano y la IA, y la potencialización a gran escala de las competencias que hacen al talento humano irremplazable, como la necesaria e insustituible humanización de los servicios de salud, la intuición, la empatía, pues de la misma manera que un paciente será igual a otro, tampoco se puede reducir a un dato.

Esto también te puede interesar  Muerte digna, zonas grises y regulación en Colombia: Una guía para el talento humano en salud

En todo escenario, se ve que los profesionales de la salud evolucionarán para servirse de la IA, pero no desaparecerán los daños ni su responsabilidad civil, pues detrás de la herramienta siempre estará una persona, un profesional.

Reflexiones finales

Para finalizar, resulta importante destacar que actualmente, los profesionales de la salud se constituyen en deudores de la obligación de reparar los daños de su actividad cuando los mismos sean consecuencia directa del incumplimiento de sus deberes profesionales, bajo lo que se conoce como el clásico concepto de culpa, y por otro lado, no se puede desconocer la incidencia de un régimen objetivo basado ya no en el reproche conductual sino en el riesgo, propio de actividades peligrosas que si bien no son predicables de la actividad médica del talento humano en salud, si opera y está vigente respecto de las infecciones intrahospitalarias en las instituciones de salud pública en Colombia.

Así mismo, se concluye que la IA es un producto, lo cual nos remite a la ley del consumidor, aclarando que entre el personal médico y los pacientes no se puede predicar una relación de consumo regida por el Estatuto del Consumidor, pero si se configura frente a los daños generados por esta tecnología, de tal suerte que al aplicarse en caso de defectos o falta de idoneidad sería más objetiva, lejana al reproche conductual conocida como culpa, ampliándose el eje principal en el cual se basa la actividad sanitaria.

Si bien todavía es incipiente el desarrollo legislativo interno sobre la responsabilidad de la IA se considera que los factores subjetivos y objetivos permiten imputar los daños de los pacientes a los guardianes jurídicos y personal en salud respecto de quienes se configuren los elementos de la responsabilidad civil.


Referencias.

Lazaris, A., & Roth, A. (2021). Poor Physician-Patient Communication and Medical Error. Lown Right Care Reducing Overuse and Underuse, pp. 757 – 759.

Consejo de Estado, Sección Tercera, Sentencia de septiembre 10 de 2014, expediente 25000232600019951136901 (27771).

Topa Correa, V. J., & Hernández Bo. T. A. (2021). Régimen de responsabilidad por producto defectuoso en bienes que hacen uso de la inteligencia artificial.

Flórez, J & Díaz, C. (2022) “Imputación de daños causados por robots con inteligencia artificial. Conceptos aplicables de la responsabilidad civil y del Estado” EAFIT y Suramericana S.A. Disponible en: https://www.cerlatam.com.

Fernández, R. Robótica, inteligencia artificial y seguridad: ¿Cómo encajar la responsabilidad civil?. La Ley (Online). Universitat Politècnica de Valencia, (9365):1-13. http://hdl.handle.net/10251/117875

S. D. Okegbile, J. Cai, D. Niyato and C. Yi, «Human Digital Twin for Personalized Healthcare: Vision, Architecture y Future Directions,» in IEEE Network, vol. 37, no. 2, pp. 262-269, March/April 2023, doi: 10.1109/MNET.118.2200071.

Valls Prieto, J. (2022) Sobre la responsabilidad penal por la utilización de sistemas inteligentes. Revista Electrónica de Ciencia Penal y Criminología. Universidad de Granada. Núm. 24-27, pp. 1-35. http://criminet.ugr.es/recpc/24/recpc24-27.pdf



5 3 Votos
Calificación artículo

Más vistos

Suscribir
Notificar de
3 Comentarios
El mas nuevo
Más antiguo Más votado
Comentarios en línea
Ver todos los comentarios
Oscar
17 abril, 2024 9:27 am

Interesante saber que somos parte del futuro y que estamos viviendo la evolución de la salud por medio de la tecnología y de como a la par se estudia la responsabilidad legal de sus implicaciones. Felicitaciones

J.C.
13 abril, 2024 4:33 am

Excelente artículo.

Ingrid Johanna Gutiérrez Duarte
12 abril, 2024 5:20 pm

Muchas gracias por su información lo tendré en cuenta y también tendré en cuenta que fue precisamente usted quien me lo hizo saber ya que es muy obvia la negligencia médica de la cual fuimos victimas pero a la cual Usted debe callar por amparar a su cliente la anestesióloga y grupo médico
muchas gracias y bendiciones

3
0
Me encantaría tu opinión, por favor comenta.x