Inteligencia Artificial en el ámbito del derecho de la salud

Artificial Intelligence in the field of the right to health

Carla Mitelman1

DOI: https://doi.org/10.37767/2591-3476(2024)08

Fecha de envío: 26.06.2024

Fecha de aceptación: 29.08.2024

RESUMEN:

La Inteligencia Artificial (IA) ha revolucionado al mundo, asistiendo y mejorando la vida de las personas, pero también provocando daños cuando los sesgos algorítmicos desvían los resultados del sistema o cuando se produce una brecha de seguridad que vulnera el secreto de los datos cargados. En el ámbito de la salud, la IA puede promover invalorables beneficios a los pacientes, pero es imprescindible que se ejerza una supervisión humana permanente para evitar perjuicios, o en su defecto, minimizarlos. En el ámbito jurídico se discute si es necesario crear un nuevo instituto de responsabilidad para la IA o si los ya existentes resuelven cada problema que pueda surgir, y si es imprescindible sancionar una norma específica que controle cada aspecto de la IA o es suficiente con dictar una guía de recomendaciones que no limite el desarrollo de la tecnología.

ABSTRACT

Artificial Intelligence (AI) has revolutionized the world, assisting and improving people´s life, but also causing harm when algorithmic biases skew the system´s results or when a security breach occurs that violate the secrecy of the uploaded data. In healthcare, AI can promote invaluable benefits to patients, even though it is necessary the human oversight to avoid harm, or at least, minimized it. In the legal field, there is a discussion about the need to create a new institute of liability for AI or whether the existing ones solve each problem that may arise, and whether it is essential to dictate a specific regulation that controls every aspect of AI or if it is enough to sanction a guide of recommendations that does no limit the development of the technology.

PALABRAS CLAVE: Inteligencia artificial, sesgos algorítmicos, datos, responsabilidad objetiva y subjetiva, salud.

KEY WORDS: Artificial Intelligence, algorithmic biases, data, objective and subjective liability, health

I. Introducción

En enero de este año, un estudio publicado en JAMA Pediatrics (Barile, y otros, 2024) reveló que el índice de precisión en el diagnóstico de casos médicos pediátricos de CHATGPT 4 fue del 17%. En la medicina se adoptaron tecnologías de inteligencia artificial que han producido grandes mejoras pero que pueden implicar una amenaza a la salud si no se tiene cuidado con los sesgos algorítmicos. En el estudio en cuestión, los investigadores le impusieron al chatbot cien retos en base a casos médicos publicados entre 2013 y 2023 en dos revistas: JAMA Pediatrics y The New England Journal of Medicine, para que el CHATGPT 4 diera su diagnóstico en cada supuesto. Dos médicos investigadores fueron los encargados de evaluar las respuestas del sistema. De los cien casos propuestos, CHATGPT acertó en 17, falló en 72 y no dio una respuesta precisa en 11, demostrando los peligros que puede conllevar el uso de la IA en el campo de la salud, sin adecuada supervisión, y obligando a analizar qué daños pueden producirse, cómo evitarlos y quiénes deben responder una vez sucedidos.

II. Salud digital y aplicaciones de la IA en la salud

La tecnología digital integrada por dispositivos portátiles, telemedicina, aplicaciones médicas móviles y softwares, ha producido una revolución en la atención médica. Las herramientas de la salud digital pueden mejorar la capacidad de realizar diagnósticos y tratar enfermedades con precisión, obteniendo mayores resultados médicos y posibilitando que los pacientes tengan un mayor control sobre su salud. (FDA, 2024). Luego de la pandemia de COVID 19, se produjo una aceleración en la implementación de la salud digital (Dirección de Salud Digital, 2021) incrementando la utilización de herramientas como la teleconsulta (Hollander, Judd E. ; Carr, Brendan G. , 2020), la prescripción de recetas digitales y electrónicas (recordemos que al comienzo de la pandemia se aceptaron recetas en formato de fotos y archivos enviados por mail gracias a la resolución ministerial 696/20, evolucionando con posterioridad en la ley 27.553 que estableció que la prescripción y dispensación de medicamentos, sólo podía ser redactada y firmada a través de plataformas electrónicas habilitadas a tal fin, reglamentado por el decreto 98/23 y complementada por distintas disposiciones como la 1/24 del Ministerio de Salud) y el desarrollo de vacunas (Aizenberg, Marisa; García Gili, Sol, 2021). Esta expansión tecnológica obligó a las distintas provincias de la Argentina a legislar sobre las historias clínicas electrónicas (como las leyes N° 14.494 de la provincia de Buenos Aires, la N° 5669 de la Ciudad Autónoma de Buenos Aires, N° 5596 de Catamarca, N° 10.590 de Córdoba, etc.), el proceso de hábeas data (leyes N° 14.214 de la provincia de Buenos Aires, N° 4360 de Chaco, N° 4.244 de Chubut, etc.), la adhesión a la ley nacional de firma digital de parte de varias provincias, telesalud (leyes N°10.273 de La Rioja, Res. 399/2011 MS de Mendoza), entre otros temas y que se encuentran disponibles en el Mapa de Salud publicado por la Dirección de Salud Digital. (Dirección de Salud Digital, 2021).

Independientemente del desarrollo de las herramientas digitales post pandemia, también se destaca la aplicación de la inteligencia artificial en el ámbito de la salud, capaz de analizar grandes volúmenes de datos, mejorar los resultados de los pacientes y reducir el trabajo de los profesionales médicos (Kaul, V.; Enslin, S.; Gross, S.A. , 2020). En la actualidad, se utilizan aplicaciones con IA en distintas especialidades tanto en el mundo como en nuestro país. De hecho, en el marco de la Mesa de Inteligencia Artificial realizada por la Agencia para el Desarrollo Económico de Córdoba (ADEC), se presentaron algunas empresas cordobesas que en la actualidad vienen aplicando y/o desarrollando Inteligencia Artificial dentro del ámbito de la medicina como ser: un sistema de visualización y procesamiento de datos en Unidades de Terapia Intensiva; un chatbot que pemite a los pacientes autogestionar sus turnos, y una Plataforma de IA para prevenir y tratar la pérdida de memoria (Desarrollos de Inteligencia Artificial en Córdoba: siete casos de éxito, 2024).

Sin duda, la noticia más sorprendente y prometedora de todas en el campo de la salud es la de “Agent Hospital”. Recientemente, investigadores de la universidad Tsinghua desarrollaron una simulación de un hospital dirigido por IA denominado “Agent Hospital” (Li, Junkai; Wang, Sidu; Zhang, Meng; Li, Weitao; Lai, Yunghwei; Kang, Xinhui; Ma, Weizhi; Liu, Yang, 2024) en el cual hay dos clases de participantes: por un lado, los médicos y las enfermeras y por el otro, los residentes que simulan ser pacientes. La idea es simular la atención de cada paciente desde el ingreso, diagnóstico, tratamiento y monitoreo y que el agente médico vaya evolucionado a medida que interactúe con los pacientes. El hospital tiene una biblioteca con los casos exitosos y una base de datos con los erróneos. Se experimentó en alrededor de 10.000 casos, alcanzando una precisión del 88% en revisación, 95,6% en diagnóstico y 77,6% en tratamiento. Dado estos resultados prometedores y lo avanzado que está la simulación, estiman que el hospital estará operativo en un breve plazo. China no tiene una regulación específica sobre la IA, sino algunas disposiciones sobre ciertas aplicaciones como la IA generativa (Interim Measures for the Management of Generative Artificial Intelligence Services, 2024) sin embargo, este año el profesor Zhao Jingwu, docente de la Universidad de la Universidad de BeiHang declaró al diario The Globe que presentaron un proyecto de ley sobre la regulación de la IA que se centra en tres áreas: datos, computación y algoritmos y que propone la introducción de las compañías de seguros (Caiyu, 2024). Habrá que esperar en el futuro cómo funciona Agent Hospital con pacientes reales y cuál será la regulación china en cuanto a la IA en el ámbito de la salud.

La IA también se aplica en el ámbito de la salud mental y emocional. En todos los medios generó revuelo la aparición de CUX (CUX, s.f.), que se promociona en su sitio web como una “herramienta de asistencia para tu bienestar emocional, que está impulsada por inteligencia artificial”. En la mencionada página se explica que no es un centro de emergencias, que no deriva las consultas con profesionales, que no diagnostica ni da tratamientos. Se utiliza a través de una suscripción y si la persona necesita ayuda profesional, en la web se informa que el sistema brinda los contactos de profesionales. En el sitio de internet hay un paper que contiene un estudio clínico escrito por Carolina Klos, Phd en psicología y los CEOs del sitio: Connie Ansaldi y Santiago Loose (Klos, Ansaldi, & Santiago, s.f.). En la página no consta si este estudio ha sido publicado en una revista científica, lo que podría brindar otro tipo de sustento. Participaron personas mayores de 18 años reclutadas a través de redes sociales, que tienen un trabajo y que prestaron su consentimiento informado. El estudio revela que las herramientas de IA, particularmente CUX, poseen un gran potencial para responder a las necesidades de apoyo emocional. Esta no es la primera aplicación dedicada al bienestar emocional. En el mundo hay distintas herramientas, incluyendo ChatGPT, que también brindan un soporte parecido. En el caso de ChatGPT, la misma aplicación informa que no tiene la capacidad de brindar un diagnóstico preciso o tratar un trastorno grave, recomienda acudir a un profesional cuando se le plantean ciertos temas pero brinda consejos sobre problemas emocionales o sociales (Guerri, 2024). Sostengo firmemente que todas estas herramientas deben ser supervisadas en todo momento por profesionales de la salud, ya que una falla en el sistema o un sesgo en el algoritmo, podrían causar un grave perjuicio como, por ejemplo, no detectar a tiempo una enfermedad de salud mental o prevenir un suicidio. Los algoritmos son falibles y todavía no cuentan con todas las herramientas para poder brindar soluciones como los seres humanos. Como bien dicen los Dres. Caraballo y Gamen (Caraballo & Gamen, 2020): “las máquinas no están capacitadas para tener un sentido crítico de interpretación del mundo real” pero con la adecuada supervisión pueden ser un complemento muy útil.

III. Sesgos en el algoritmo y otros riesgos

Como podemos observar los resultados de la aplicación de la IA en el campo de la salud son tanto revolucionarios y beneficiosos como amenazantes si no se toman los recaudos necesarios, ya que la IA presenta numerosos riesgos que paso a explicar a continuación.

Los profesionales de distintos campos de las ciencias, tanto duras como blandas y de determinados organismos públicos y privados, han manifestado que es imperativo determinar los principios éticos que deben regir la IA desde el origen, desarrollo y seguimiento posterior a su implementación, para minimizar los sesgos, definidos en el documento técnico CLIAS: Inteligencia Artificial Responsable: Claves para aplicar los principios éticos en las soluciones de IA en el campo de la salud emanado del (CIIPS) (Centro de Implementación e Innovación en Políticas de Salud (CIIPS) del Instituto de Efectividad Clínica y Sanitaria (IECS), 2023) como: “errores sistemáticos o inclinación en las decisiones o predicciones de un modelo de IA que pueden llevar a resultados injustos o inequitativos, o simplemente erróneos y que pueden ocasionar daños tanto materiales como inmateriales, como la filtración de datos, la violación a la privacidad, la fomentación de la desigualdad, daños a los grupos más vulnerables, discriminación, etc.”. Un ejemplo de error se da cuando un solo grupo social, con determinada preparación universitaria y determinados ingresos, desarrolla un sistema sin tomar en cuenta una población más vulnerable, lo que podría provocar un sesgo en el algoritmo. Para evitarlo, CLIAS resalta que resulta importante que desde la concepción hasta la evolución de cada sistema estén involucrados distintos sectores de la sociedad para minimizar justamente estos riesgos. (Centro de Implementación e Innovación en Políticas de Salud (CIIPS) del Instituto de Efectividad Clínica y Sanitaria (IECS), 2023)

Pero los sesgos no son los únicos riesgos que presentan los sistemas de IA. En su artículo “La responsabilidad civil de los algoritmos. ¿Dónde estamos parados?”, (Caraballo & Gamen, 2020) los Dres. Caraballo y Gamen detallan tres tipos de errores técnicos a resolver: accidentes, mal uso y desatención. Los accidentes ocurren cuando en un estudio no se detecta una enfermedad o hay un accidente ocasionado por un vehículo autónomo. Se puede observar un ejemplo de mal uso cuando se aplica un sistema genérico a una situación específica y de desatención cuando los creadores del sistema no hacen el seguimiento adecuado.Ellos concluyen que: “Los programas basados en Inteligencia Artificial necesitan de muchos más datos que el cerebro humano para poder hacer analogías y poder reconocer características o particularidades propias de la situación analizada. Por ello la “Gran Información” necesaria para poder incorporar datos a los programas “autónomos” es un problema grave a la hora de evitar que las conclusiones o resultados sean valederos o equívocos en el momento de su aplicación a los casos concretos de análisis.”

Por otro lado, en su ponencia “IA en el ámbito sanitario: oportunidades, riesgos y responsabilidades”, la Dra. Mónica Navarro-Michel (Navarro-Michel, 2023) expone muy claramente el efecto “caja negra” de la IA, es decir, es imposible explicar por qué la IA concluye a través de la recopilación y proceso de información, determinado diagnóstico o aconseja un tratamiento específico, sumado a la imprevisibilidad que supone la imposibilidad de deducir qué conclusiones brindará el sistema, ocasionando problemas de trazabilidad.

IV. Datos

La IA aprende y se alimenta de los datos que le suministran. En Argentina, la ley 25.326 (Ley 25326. Protección de los datos personales, 2000) de Protección de Datos Personales incluye en su artículo 2, al definir a los datos sensibles, a todos los referentes a la salud de las personas. En su artículo 8 habilita a los establecimientos sanitarios públicos o privados y a los profesionales de la salud a recolectar y tratar datos personales relacionados con la salud de los pacientes que han estado o están en tratamiento, respetando siempre el principio de secreto profesional. La ley 26.529 (Ley 26529. Derechos del Paciente en su Relación con los Profesionales e Instituciones de la Salud, 2009) sobre los derechos de los pacientes reconoce en el artículo 2, entre otros derechos, a la confidencialidad de los datos sensibles. Por su carácter de dato sensible es imprescindible que al suministrar esa información al sistema de IA se tomen todas las medidas necesarias para que aquellos sean precisos, para que la IA tenga todas las herramientas necesarias para trabajar y sin filtraciones, ya que el daño ocasionado a la persona titular sería irremediable. La Subsecretaría de Tecnologías de la Información publicó la Disposición 02/2023 (Disposición 2/2023 de la Subsecretaría de Tecnologías de la Información, 2023) con las “Recomendaciones para una Inteligencia Artificial Responsable”. En su Anexo I, propone el tratamiento de los datos donde expresa que… “No se debe subestimar el tratamiento que corresponde otorgar a los datos involucrados en el proyecto. Estos deben ser tratados por profesionales sobre la base de las buenas prácticas de la ciencia de datos. La calidad de los datos que se utilicen determinará no solamente la calidad del modelo entrenado, sino que también contribuirá con el éxito del proyecto”.

V. Principios éticos en la IA

A los fines de enfrentar los desafíos que entraña el uso de la IA en el área de salud, maximizar sus beneficios a favor de los pacientes, potenciar el trabajo de los especialistas de la salud y minimizar los riesgos, es importante que las aplicaciones utilizadas estén embebidas de principios éticos que respeten los derechos humanos desde su concepción, desarrollo, implementación y seguimiento post lanzamiento de cada sistema. Es por eso que distintos organismos han hecho hincapié en los principios éticos que deben utilizarse en IA. En tal sentido, el documento del Centro de Implementación e Innovación en Políticas de Salud (CIIPS) del Instituto de Efectividad Clínica y Sanitaria (IECS) trata sobre el uso de la IA en la salud, desde la perspectiva de la responsabilidad. En este orden, manifiesta que “la inteligencia artificial responsable se refiere a la práctica de desarrollar, implementar y utilizar sistemas de inteligencia artificial (IA) de manera ética para minimizar los riesgos y consecuencias negativas asociadas con su sistema. Esto implica considerar una serie de principios y prácticas para garantizar que la IA beneficie a la sociedad en su conjunto y no cause daño”. (Centro de Implementación e Innovación en Políticas de Salud (CIIPS) del Instituto de Efectividad Clínica y Sanitaria (IECS), 2023) En este escrito se resalta la importancia de cuatro principios: “seguridad (sistemas de IA que no generen daños, peligros o riesgos), autodeterminación (la preservación de la autonomía, la salvaguarda de las libertades fundamentales y el respeto irrestricto del derecho al consentimiento informado), benevolencia (la importancia de sopesar el imperativo de la beneficencia que se refiere a la obligación de los profesionales de la salud de actuar en beneficio de los pacientes y de buscar su bienestar, por lo tanto cualquier herramienta basada en IA que se utilice debe estar aplicada con esto como uno de sus objetivos) y universalismo (principio de justicia)”.

La Organización Mundial de la Salud también entiende que: “el hecho de que la IA pueda favorecer los intereses de los pacientes y las comunidades dependerá de un empeño colectivo en diseñar e implementar leyes y políticas éticamente defendibles y tecnologías de IA cuyo diseño tenga en cuenta los principios éticos. También se presentan posibles consecuencias negativas graves si quienes financien, diseñen, regulen o utilicen las tecnologías de IA en el ámbito de la salud no otorgan prioridad a esos principios y a las obligaciones en materia de derechos humanos. Por lo tanto, las oportunidades y los desafíos de la IA están inextricablemente vinculados”. (Organización Mundial de la Salud, 2021)

Aunque la CIIPS (Centro de Implementación e Innovación en Políticas de Salud (CIIPS) del Instituto de Efectividad Clínica y Sanitaria (IECS), 2023) establece cuatro principios que deben aplicarse y la OMS (Organización Mundial de la Salud, 2021) señala seis, la esencia es la misma: la protección de la autonomía humana (el principio de autonomía requiere que el empleo de la IA u otros sistemas informáticos no socave la autonomía humana), la promoción del bienestar y la seguridad de las personas y el interés público (las tecnologías de IA no deben perjudicar a las personas), garantizar la transparencia, la claridad y la inteligibilidad (es decir, el desarrollo de la IA debe ser transparente y el sistema debe ser fácil de entender por todas las partes, desde los desarrolladores hasta los usuarios), la promoción de la responsabilidad y la rendición de cuentas (los desarrolladores deben asegurarse que la IA se utilice por personas capacitadas y en las condiciones adecuadas, tanto los pacientes como los médicos serán los que evalúen la utilización y si surge algún problema, los desarrolladores deberán rendir cuentas al respecto), la garantía de la inclusividad y la equidad (se requiere que desde la concepción de la IA aplicada a la salud se garantice su uso y acceso a toda la población sin distinción de género, raza, edad, nacionalidad, clase social, etc.).

Como se puede observar, ambos tienden a tener en esencia los mismos principios, la IA debe ser segura, no debe causar perjuicios ni afectar la autonomía de la persona, debe ser inclusiva, equitativa y universal.

VI. Importancia de legislar la IA

Gracias a los avances de la inteligencia artificial, somos testigos de la cuarta revolución industrial (Schwab, 2016), como ha denominado a este fenómeno, Klaus Schwab, fundador del Foro Económico Mundial, la cual promueve grandes avances en todos los campos, a una velocidad tan inusitada que compele a todas las naciones a debatir la conveniencia de regularla y cómo legislar sin restringir su avance, ya que las aplicaciones de IA conllevan muchos beneficios para la humanidad pero también grandes riesgos. Un marco regulatorio puede asegurar que estas nuevas tecnologías respeten y protejan la dignidad de cada persona, evitar abusos y garantizar que las personas no sean tratadas como si solo fueran datos o números. (Aguerre, C. (Ed.), Amunategui, C., Aguerre, C., Brathwaite, C., Castañeda, J. D., Castaño, D., del Pozo, C., Florez Rojas, L., Gomez-Montt, C., Lara Gálvez, J. C., López, J., Madrid, R., Martín del Campo, A. V., & Vargas Leal, J., 2020). En este sentido podemos observar que algunos proponen implementar una normativa totalmente reguladora como la Comunidad Europea (Ley de Inteligencia Artificial. Parlamento Europeo, 2024) y Chile (Proyecto de Ley: Regula los sistemas de inteligencia artificial, la robótica y las tecnologías conexas, en sus distintos ámbitos de sistema, 2023) y otros, una más laxa, como Japón, que posee un Libro Blanco de Inteligencia Artificial que busca un enfoque que se adapte a la tecnología sin impedir el desarrollo (“The AI White Paper Japan’s National Strategy in the New Era of AI, 2023) o Canadá que posee una ley (Innovation, Science and Economic Development Canada, “The Artificial Intelligence and Data Act (AIDA) – Companion document”, Government of Canada, 2023) que busca adaptar la regulación de la IA a medida que evoluciona la tecnología, a través de un sistema de consultas continuas.

En marzo de este año la Asamblea General de la ONU adoptó una resolución (ONU, 2024) pidiendo “a todos los Estados Miembro que se abstengan de utilizar sistemas de inteligencia artificial que no puedan funcionar de conformidad con las normas internacionales de derechos humanos o los pongan en riesgo”. En ese mismo mes, el Parlamento Europeo aprobó la Ley de Inteligencia Artificial (Ley de Inteligencia Artificial. Parlamento Europeo, 2024) con el objetivo de garantizar la seguridad y el respeto de los derechos fundamentales y al mismo tiempo impulsar la innovación. Esta ley se basa en una escala de riesgos: prohibidos, de alto riesgo, riesgo limitado y riesgo mínimo. Los prohibidos son los riesgos inaceptables que involucran a aquellos sistemas de IA que implican una amenaza para la seguridad y los derechos de las personas. Los sistemas de IA se califican de alto riesgo cuando pueden ser perjudiciales para la salud, para la seguridad y otras áreas sensibles. El artículo 6, apartado 1 de la ley establece que si el sistema de IA se utiliza como un componente de seguridad de un producto (por ejemplo, un dispositivo médico o una herramienta de diagnóstico), regulado bajo los actos legislativos de armonización de la Unión Europea enumerados en el anexo I de esa norma, se considerará de alto riesgo. Es indispensable que aquellos que desarrollen estos sistemas evalúen y reduzcan los riesgos, conserven todos los registros de uso, garanticen la transparencia, sean precisos y aseguren la supervisión humana en todo momento. Cuantos mayores riesgos puedan presentar los modelos de aplicaciones, más requisitos deberán cumplir, como por ejemplo realizar evaluaciones más rigurosas, analizar y mitigar los riesgos sistémicos e informar sobre los incidentes.

En 2023, en Chile se presentó un proyecto de ley para regular la IA (Proyecto de Ley: Regula los sistemas de inteligencia artificial, la robótica y las tecnologías conexas, en sus distintos ámbitos de sistema, 2023), muy similar al de Europa. En Argentina no hay una legislación específica en la actualidad, aunque la disposición 2/2023 implementa una guía sobre el uso responsable (Disposición 2/2023 de la Subsecretaría de Tecnologías de la Información, 2023). Recientemente, la Comisión de Ciencia, Tecnología e Innovación Productiva de la Cámara de Diputados convocó a una reunión informativa con especialistas sobre IA para tratar algunos proyectos de ley para regularla, aunque muchas empresas opinan que no es aconsejable una norma estrictamente reguladora. (Natalí, 2024) ¿No resultaría imprescindible que haya una legislación concreta? Con las normas vigentes, ¿la población está protegida de eventuales daños? En mi opinión, si bien existen institutos del derecho vigente que pueden aplicarse por analogía, hay ciertas situaciones que necesitan ser legisladas, porque un mal uso de la IA provocaría daños muy graves a las personas, vulnerando sus derechos humanos. Si en México, en lugar de hacer un simulacro con historias clínicas, se hubiera utilizado el sistema para brindar diagnósticos reales en pacientes, el peligro que implica un diagnóstico erróneo podría ser mortal. Por otro lado, los medios han reportado una gran variedad de opciones interesantes desde el punto de vista artístico que se pueden producir con el uso de la IA generativa. En este orden, se han registrado ejemplos nefastos, tanto en Chile (Córdova, 2024) como en España, (Hedgecoe, 2023) donde se han reportado casos en los que se han publicado y viralizado imágenes creadas con IA generativa de niñas desnudas, perjudicando seriamente a las menores en cuestión. En muchos países este accionar no constituye un delito porque no está tipificada la suplantación de identidad. Los daños ocasionados por una mala utilización de la IA en la salud pueden ser irremediables, es por eso que no sólo es suficiente una guía, también es necesario una ley que la regule.

VII. Algunas observaciones sobre la responsabilidad por daños ocasionados por IA en Europa

En su documentó técnico N° 6 del Centro de Inteligencia Artificial y Salud para América Latina y el Caribe (CLIAS), se advierte que la ley de Europa no regula la responsabilidad por daños resultantes de la IA pero en el caso de que se produzca un daño se aplicará la Directiva 85/374/CEE, que regula la responsabilidad por productos defectuosos. (Centro de Inteligencia Artificial y Salud para América Latina y el Caribe, 2024). Existe una propuesta de una nueva Directiva sobre responsabilidad por daños causados por productos defectuosos que incluye sistemas de IA y que constituiría una actualización de la mencionada directiva, estableciendo que cuando los sistemas de IA son calificados como productos, si actúan de una forma defectuosa y generan un daño, las víctimas que sufrieron los daños deberán ser resarcidos por el fabricante responsable. Los sujetos dañados no necesitan probar la culpa del fabricante, sino que sólo necesitan acreditar el defecto del producto. Los proveedores de programas informáticos y servicios digitales también se consideran responsables por sus productos defectuosos. (Heredia Querro, 2024)

Es muy interesante el documento Liability for emerging digital technologies (Commission to the European Parliament, 2018) de la Unión Europa que analiza si los conceptos de la responsabilidad del guardián o conceptos similares son apropiados para tecnologías como la IA, como ocurre con los seres humanos y los animales. Si bien, cuando se habla de responsabilidad por los daños ocasionados por animales, hay un factor en común con la IA que es la falta de predictibilidad y conducta autónoma, es importante el papel que puede desarrollar una legislación sobre seguridad para reducir la impredecibilidad al mínimo.

VIII. Responsabilidad subjetiva o responsabilidad objetiva.

El documento europeo Liability for emerging digital technologies (Commission to the European Parliament, 2018) sostiene que es fundamental explorar el concepto de si la responsabilidad por IA debe ser subjetiva (o sea basarse en el dolo o culpa del responsable que no cumplió con todos sus deberes) o si debe ser objetiva (en base al riesgo de la cosa). En este trabajo se concluye en que en algunos objetos que trabajan con IA como por ejemplo los autos automáticos, ya se pueden aplicar las previsiones de la responsabilidad objetiva. Como en la Unión Europea también convergen las legislaciones de cada país, hay algunas que hacen hincapié en si el daño podría haberse evitado o no para determinar la responsabilidad, por lo que surge la duda de si por analogía, el propietario de un robot podría evitar ser responsable por los daños ocasionados, si usó el robot adecuadamente y realizó todos los servicios de mantenimiento adecuados, respetando las instrucciones de los fabricantes y actualizando el software cada vez que era necesario. Entendiendo que existe un factor de autonomía, en el documento se cuestiona qué acciones pueden tomar los responsables para evitar el daño causado por la conducta autónoma de las tecnologías digitales emergentes.

Este documento (Commission to the European Parliament, 2018) también evalúa la carga de la prueba, ya que hay legislaciones europeas que establecen distintos regímenes sobre este precepto. En algunas normas se determina que el responsable debe probar, para eximirse de la responsabilidad, que el daño fue causado por fuerza mayor o por el accionar de un tercero. Es importante determinar quién llevará la carga de la prueba: si el desarrollador/fabricante o la víctima, lo que puede resultar una tarea muy difícil demostrar la culpa para aquel que sufrió el daño. Debido a las características específicas de la IA, incluido el denominado efecto de “caja negra”, puede resultar muy difícil para las víctimas determinar quién es la persona responsable. (Heredia Querro, 2024)

IX. Daño

El documento (Commission to the European Parliament, 2018) advierte que también debe evaluarse el tipo de daño, es decir, qué clase de perjuicio causado por estas tecnologías debe compensarse: muerte, daño corporal, daño a la propiedad, daño económico, daño inmaterial. Este estudio señala un tema muy interesante: estas tecnologías pueden crear nuevos tipos de riesgos o acentuar los ya existentes. Manifiesta que si se aplicara un enfoque de responsabilidad objetiva aplicada a los objetos que utilizan IA se reconocería que los daños provocados por el uso de esos artículos no pueden ser evitados y aseguraría que el responsable compense a las potenciales víctimas, sin tener en cuenta el factor subjetivo de la culpa. Asimismo, con el fin de asegurar la compensación de la víctima, habría que imponer la obligatoriedad de que los responsables contraten seguros.

X. La responsabilidad de la IA en Argentina

En las Recomendaciones para una Inteligencia Artificial Responsable se concluye que: “un algoritmo no posee autodeterminación y/o agencia para tomar decisiones libremente (aunque muchas veces en el lenguaje coloquial se utiliza el concepto de “decisión” para describir una clasificación ejecutada por un algoritmo luego de un entrenamiento), y por ende no se le pueden atribuir responsabilidades de las acciones que se ejecutan a través de dicho algoritmo en cuestión”. En estas recomendaciones se define a la IA como “artificios”, o sea, una cosa que no debe confundirse con un ser humano, por lo tanto, el algoritmo no es responsable sino la persona.

El art. 17572 del Código Civil y Comercial de la Nación establece que “toda persona responde por el daño causado por el riesgo o vicio de las cosas…La responsabilidad es objetiva. No son eximientes la autorización administrativa para el uso de la cosa o la realización de la actividad, ni el cumplimiento de las técnicas de prevención.” Si bien en muchos países hay proyectos que establecen que las aplicaciones de IA deben tener una autorización administrativa para funcionar, en Argentina no existe ese requisito. En el proyecto de ley chileno que ya he mencionado, se crea en el ámbito público una Comisión Nacional de Inteligencia Artificial que tiene entre otras funciones, autorizar las solicitudes presentadas por los desarrolladores, proveedores y usuarios de sistemas de IA. El artículo 6 de dicho proyecto establece la obligatoriedad de que todos los desarrolladores, proveedores y usuarios de sistemas de IA soliciten una autorización antes de desarrollar, comercializar, distribuir y utilizar un sistema ante este ente. La autorización tendría una validez de cinco años y sería renovable.

El art. 17583 del Código Civil y Comercial, establece que el dueño y el guardián son responsables concurrentes del daño causado por las cosas y que en caso de actividad riesgosa responde quien la realiza, se sirve u obtiene provecho de ella, por sí o por terceros.

En lo personal, de producirse un daño, creo que habría que analizar cada caso en particular. Si el daño se produjo por un sistema de IA defectuoso, debe responder el desarrollador, el fabricante y todo aquel involucrado en la evolución del mismo, pero si el daño fue producido como consecuencia de que el especialista médico cargó mal los datos, no interpretó correctamente el diagnóstico o el usuario no lo empleó diligentemente, la responsabilidad debería ser subjetiva.

XI. La IA y el derecho al consumidor

Si bien existe una discusión entre dos corrientes contrarias de pensamiento que debaten si es correcto considerar a la salud como bien de consumo, si es posible considerar un paciente como un consumidor y si hay una relación de consumo entre el paciente y el médico o el paciente y el hospital (Cortesi, 2019) (Casares, 2016), aquellos que están a favor de que existe una relación de consumo, podrían considerar que es aplicable la ley de Defensa del Consumidor (Ley 24240. Defensa del Consumidor. Autoridad de Aplicación. Procedimiento y Sanciones. Disposiciones Finales, 1998). El art. 40 de dicha norma establece que, si el daño al consumidor resulta del vicio o riesgo de la cosa, van a responder solidariamente el productor, el fabricante, el importador, el distribuidor, el proveedor, el vendedor y quien haya puesto su marca en la cosa o servicio. Por lo que, si el daño se produjera por un sistema de IA defectuoso, el paciente estaría cubierto ante cualquier contingencia.

XII. Conclusión

La IA es un avance tecnológico muy importante que puede derivar en grandes beneficios a toda la humanidad, siempre y cuando esté imbuida de principios éticos que respeten los derechos humanos fundamentales y que esté bajo supervisión humana que verifique que el accionar de la IA sea correcto. Es importante que el Estado regule la IA para asegurarse que se realizará un uso responsable y remediar adecuadamente cualquier daño que se pudiera producir por su uso indebido

Referencias bibliográficas

• “The AI White Paper Japan’s National Strategy in the New Era of AI. (2023). Obtenido de https://www.taira-m.jp/ldp%E2%80%99s%20ai%20whitepaper_etrans_2304.pdf

• Aguerre, C. (Ed.), Amunategui, C., Aguerre, C., Brathwaite, C., Castañeda, J. D., Castaño, D., del Pozo, C., Florez Rojas, L., Gomez-Montt, C., Lara Gálvez, J. C., López, J., Madrid, R., Martín del Campo, A. V., & Vargas Leal, J. (2020). Inteligencia Artificial en América Latina y el Caribe. Ética, gobernanza y políticas. Universidad de San Andrés.

• Aizenberg, Marisa; García Gili, Sol. (2021). Inteligencia artificial al servicio de la salud: su impacto en el acceso a las vacunas. Pensar en derecho, 101-122.

• Barile, J., Margolis, A., Cason, G., Kim, R., Kalash, S., Tchaconas, A., & Milanaik, R. (2024). Diagnostic accuracy of a large language model in pediatric case studies. JAMA Pediatrics, 313-315.

• Caiyu, L. (17 de Marzo de 2024). Chinese scholars unveil draft on artificial intelligence law. Global Times.

• Caraballo, J. C., & Gamen, S. (2020). La responsabilidad civil de los algoritmos. ¿Dónde estamos parados?. Publicado en El Dial.com

• Centro de Implementación e Innovación en Políticas de Salud (CIIPS) del Instituto de Efectividad Clínica y Sanitaria (IECS). (Septiembre de 2023). Inteligencia Artificial (IA) Responsable: Claves para aplicar los principios éticos en las soluciones de IA en el campo de la salud. Documento Técnico. Obtenido de https://clias.iecs.org.ar/publicaciones/inteligencia-artificial-ia-claves-principios-eticos-salud/

• Centro de Inteligencia Artificial y Salud para América Latina y el Caribe. (2024). Regulación de la inteligencia artificial en el sector salud: Un análisis global y regional en América Latina y el Caribe. Obtenido de https://clias.iecs.org.ar/wp-content/uploads/2024/08/DT6-CLIAS-Regulacion_IA_esp.pdf

• Commission to the European Parliament, t. E. (2018). Liability for emerging digital technologies. Obtenido de https://eur-lex.europa.eu/legal-content/EN/ALL/?uri=CELEX:52018SC0137

• Córdova, E. (24 de Mayo de 2024). ALUMNOS DEL COLEGIO SAINT GEORGE CREARON IMÁGENES DE COMPAÑERAS DESNUDAS USANDO IA Y LAS VIRALIZARON. La Nación. Obtenido de https://www.lanacion.cl/alumnos-del-colegio-saint-george-crearon-imagenes-de-companeras-desnudas-usando-ia-y-las-viralizaron/

• CUX. (s.f.). Obtenido de https://cux.ai/

• Desarrollos de Inteligencia Artificial en Córdoba: siete casos de éxito. (13 de agosto de 2024). Comercio y justicia.

• Dirección de Salud Digital. (2021). Mapa Normativo Argentino. Obtenido de http://www.legisalud.gov.ar/pdf/OASAD.pdf

• Disposición 2/2023 de la Subsecretaría de Tecnologías de la Información. (2 de junio de 2023). Boletín Oficial.

• FDA. (1 de Agosto de 2024). Obtenido de https://www.fda.gov/medical-devices/digital-health-center-excellence/what-digital-health

• Guerri, M. (2024). Inteligencia artificial y psicología, la revolución de CHAT GPT. Obtenido de psicoactiva.com: https://www.psicoactiva.com/blog/inteligencia-artificial-y-psicologia-la-revolucion-de-chatgpt/

• Hedgecoe, G. (25 de septiembre de 2023). El escándalo en un pequeño pueblo de España por las imágenes de decenas de niñas y jóvenes desnudas generadas por IA. BBC News Mundo. Obtenido de https://www.bbc.com/mundo/articles/cz9r6792k13o

• Heredia Querro, S. (2024). Inteligencia Artificial y Responsabilidad Civil: la postura de la Unión Europea (y un aviso de la FTC). Obtenido de abogados.com.ar: https://abogados.com.ar/inteligencia-artificial-y-responsabilidad-civil-la-postura-de-la-union-europea-yun-aviso-de-la-ftc/34739#_ftn2

• Hollander, Judd E. ; Carr, Brendan G. . (2020). Virtually Perfect? Telemedicine for Covid-19. N Engl J Med, 1679-1681.

• Innovation, Science and Economic Development Canada, “The Artificial Intelligence and Data Act (AIDA) – Companion document”, Government of Canada. (2023).

• Interim Measures for the Management of Generative Artificial Intelligence Services. (15 de 08 de 2024). Obtenido de https://www.chinalawtranslate.com/en/generative-ai-interim/

• Kaul, V.; Enslin, S.; Gross, S.A. . (2020). History of Artificial Intelligence in Medicine. Gastrointest. Endosc., 807–812.

• Klos, C., Ansaldi, C., & Santiago, L. (s.f.). ¿Puede una herramienta basada en IA contribuir a la salud? Obtenido de https://cux.ai/SobreNosotros

• Ley 24.240. Defensa del Consumidor. Autoridad de Aplicación. Procedimiento y Sanciones. Disposiciones Finales. (30 de julio de 1998). Boletín Oficial .

• Ley 25.326. Protección de los datos personales. (2 de Noviembre de 2000). Boletin Oficial.

• Ley 26.529. Derechos del Paciente en su Relación con los Profesionales e Instituciones de la Salud. (20 de noviembre de 2009). Boletín Oficial.

• Ley de Inteligencia Artificial. Parlamento Europeo. (13 de marzo de 2024). Obtenido de https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_ES.html

• Li, Junkai; Wang, Sidu; Zhang, Meng; Li, Weitao; Lai, Yunghwei; Kang, Xinhui; Ma, Weizhi; Liu, Yang. (2024). Agent Hospital: A Simulacrum of Hospital with Evolvable Medical Agents. arXiv:2405.02957 [cs.AI].

• Natalí, R. (2 de Agosto de 2024). Entre circuitos y leyes: Argentina comienza a debatir la regulación de la Inteligencia Artificial . Página 12.

• Navarro-Michel, M. (2023). Inteligencia artificial en el ámbito sanitario: oportunidades, riesgos y responsabilidades. I Congreso Internacional "Bioética, Tecnología, Investigación y Salud". Obtenido de https://www.youtube.com/watch?v=6l2D2-xINZA

• ONU. (2024). Obtenido de https://news.un.org/es/story/2024/03/1528511

• Organización Mundial de la Salud. (2021). Ética y gobernanza de la inteligencia artificial en el ámbito de la salud: orientaciones de la OMS. Resumen (Ethics and governance of artificial intelligence for health: WHO guidance. Executive summary). Obtenido de WHO: https://www.who.int/es/publications/i/item/9789240037403

• Proyecto de Ley: Regula los sistemas de inteligencia artificial, la robótica y las tecnologías conexas, en sus distintos ámbitos de sistema. (24 de abril de 2023). Obtenido de https://www.camara.cl/legislacion/ProyectosDeLey/tramitacion.aspx?prmID=16416&prmBOLETIN=15869-19

• Reglamento de Inteligencia Artificial. (13 de marzo de 2024). Obtenido de https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_ES.html

• Schwab, K. (2016). La cuarta revolución industrial. Editorial Debate.


  1. 1 Abogada egresada de la UBA. Periodista egresada del Instituto Grafotécnico. Asesora legal de empresas vinculadas con la salud. Ex miembro de LLUPRECA (Liga de Lucha y Prevención de las Enfermedades Cardiovasculares). Miembro del Instituto de Derecho de la Salud del CPACF. Autora de múltiples artículos. ORCID id https://orcid.org/0009-0006-1436-0455

  2. 2 Código Civil y Comercial de la Nación (2015). Argentina.

  3. 3 Código Civil y Comercial de la Nación (2015). Argentina.