Todas las comunidades autónomas reconocen haber desarrollado algoritmos y sistemas de IA en los servicios de salud, pero la mayoría no da suficiente información para evaluar su despliegue
Perplexity

por Ángela Bernardo, María Álvarez del Vayo, Adrián Maqueda, Carmen Torrecillas y Ter García

“La Estrategia de Salud Digital del Sistema Nacional de Salud, que se lanzó en el 2021, está dotada con más de 1.000 millones de euros en planes colaborativos entre el Ministerio de Sanidad y las comunidades autónomas y ha sentado las bases para introducir tecnologías avanzadas de manera coordinada y de manera cohesionada, que creo que es muy importante”. Con estas palabras inauguraba Mónica García, ministra de Sanidad, el I Foro de Inteligencia Artificial para el Sistema de Salud, celebrado a mediados de septiembre. Sin embargo, sus buenos deseos chocan con la realidad que viven a diario los profesionales del Sistema Nacional de Salud consultados por Civio.

“Básicamente, esto es una guerra: cada uno compra el software que quiere, el que puede o el que necesita”
Antonio López Rueda, portavoz de la Sociedad Española de Radiología Médica (SERAM) y radiólogo del Hospital Universitario de Bellvitge

Aunque cada vez es mayor el número de algoritmos y sistemas de inteligencia artificial que se incorporan en la sanidad pública, su implementación está marcada por una enorme disparidad. “Hay diversidad por todo tipo, por comunidad autónoma, por hospitales, por campos, por todo. Básicamente, esto es una guerra: cada uno compra el software que quiere, el que puede o el que necesita”, dice Antonio López Rueda, portavoz de la Sociedad Española de Radiología Médica (SERAM) y radiólogo del Hospital Universitario de Bellvitge. Para Nuria Ribelles Entrena, portavoz de la Sociedad Española de Oncología Médica (SEOM) y oncóloga del Hospital Universitario Virgen de la Victoria de Málaga, existe “cero” coordinación para compartir o reutilizar tecnología: “Cada comunidad va por libre”.

UNA INTEGRACIÓN POCO TRANSPARENTE Y DESIGUAL

En líneas generales, la incorporación de la IA en el Sistema Nacional de Salud se está haciendo de forma bastante opaca. “Los ciudadanos deberíamos tener el derecho de poder saber qué sistemas se están integrando, cómo fueron entrenados, qué datos de entrenamiento utilizaron, cómo se han comprado o si fue algo que está desarrollando la propia administración pública”, dice la jurista Anabel K. Arias, portavoz de la Federación de Consumidores y Usuarios (CECU). Sin embargo, solo dos comunidades autónomas, País Vasco y Generalitat Valenciana, cuentan con un registro público de algoritmos, incluyendo los que se aplican en salud. En opinión de Arias, la transparencia algorítmica “es relevante para poder hacer un control sobre lo que se está implementando en general en España y en la sanidad pública”.

Entre 2024 y 2025, Civio ha realizado, a través de la Ley de Transparencia, una veintena de solicitudes de acceso a la información pública a las consejerías autonómicas con competencias en sanidad o digitalización y al Ministerio de Sanidad. Dada la situación cambiante de la IA, intentamos además actualizar la información directamente con los gabinetes de prensa de cada departamento. Nuestra investigación arroja una situación tremendamente desigual: mientras la Comunidad de Madrid se acerca al centenar de proyectos basados en IA, con cada hospital actuando por cuenta propia; otras regiones, como Asturias, Galicia o la Comunidad Valenciana, han integrado un menor número de aplicaciones, en su mayoría centradas en el diagnóstico. Cataluña, por su parte, solo ha dado información parcial, amparándose en el secreto empresarial y en la protección de la propiedad intelectual e industrial.

“Si al final hay determinados hospitales o comunidades autónomas que están acelerando la incorporación de sistemas de IA en sus hospitales o servicios públicos y otros no, puede llegar a verse desde un punto de vista de la brecha digital: que algunas personas puedan tener un servicio de salud y otras, otro tipo completamente diferente”, apunta la jurista Anabel K. Arias. Aunque la IA se está integrando a velocidades distintas, parece evidente que su implementación se está acelerando a marchas forzadas. Por ejemplo, a mediados de 2024, Asturias o Castilla y León negaron contar con algoritmos, pero, unos meses más tarde, la situación era diferente pues introdujeron varios sistemas. “Es el problema del FOMO (fear of missing out), el miedo a quedarnos fuera: si no usas nada de IA, estás fuera de este mundo. Si usas algo, probablemente aparezcas en las noticias”, dice López Rueda.

En el Ministerio de Sanidad, la realidad también es bastante diferente. Dentro de este departamento, la Agencia Española de Medicamentos y Productos Sanitarios (AEMPS) ha desarrollado varios sistemas basados en procesamiento de lenguaje natural, incluido el fallido MeqA, que daba respuestas erróneas sobre medicamentos, mientras que el trabajo en la Dirección General de Salud Digital y Sistemas de Información para el SNS se ha centrado en dos aplicaciones, una para predecir “la expansión de enfermedades transmisibles” y otra para resolver dudas a quienes se presentan a las pruebas como el MIR.

También dentro del Ministerio, el Instituto de Gestión Sanitaria (INGESA) ha incorporado, por ejemplo, tecnología de reconocimiento facial con IA para fichar a pacientes de Ceuta y Melilla. En cambio, la Organización Nacional de Transplantes no ha contratado ni desarrollado por el momento sistemas basados en inteligencia artificial, a diferencia de lo ocurrido en Reino Unido. Allí, la implementación de un algoritmo conllevó discriminación hacia pacientes jóvenes en las listas de espera para recibir un órgano.

IA SANITARIA: UN AUGE SIN SUFICIENTES GARANTÍAS

El mapeo de Civio no permite saber en qué especialidades está más avanzada la inteligencia artificial, porque no todas las comunidades dan el mismo nivel ni detalle en la información. Pero donde sí hay datos se observa un patrón claro: muchas aplicaciones se incorporan para analizar imágenes médicas (por ejemplo, en radiología, dermatología, anatomía patológica), como también sucede en países como Estados Unidos. “El análisis de un píxel, que es la unidad básica de la imagen, es muchísimo más sencillo que el análisis del dato, de palabras, de texto. El análisis de texto escrito es muchísimo más complejo, por eso va mucho más retrasado”, explica la oncóloga Ribelles Entrena.

“Disminuir la ingente burocracia que asumimos en las consultas y que consume la mayor parte del tiempo de que disponemos permitiría poder centrarnos de manera más directa en lo que espera de nosotros el paciente: que le miremos a los ojos en vez de estar tecleando y mirando a la pantalla”
Rosa Taberner Ferrer, dermatóloga en el Hospital Son Llàtzer de Mallorca

Otros sistemas que se están integrando con rapidez son los que permiten gestionar de forma automatizada la información clínica, por ejemplo, para transcribir automáticamente la conversación entre profesionales y pacientes o para asignar códigos a los diagnósticos en urgencias. “Uno de los principales avances que esperamos es toda la tecnología de IA que tiene que ver con el lenguaje natural, ya que disminuir la ingente burocracia que asumimos en las consultas y que consume la mayor parte del tiempo de que disponemos permitiría poder centrarnos de manera más directa en lo que espera de nosotros el paciente: que le miremos a los ojos en vez de estar tecleando y mirando a la pantalla”, dice Rosa Taberner Ferrer, dermatóloga en el Hospital Son Llàtzer de Mallorca. Y añade: “Es lo que de verdad dará un giro de 180º a nuestras consultas”.

“Estamos en unas etapas muy iniciales de lo que puede ser la IA en oncología o en cualquier otra especialidad, quitando anatomía patológica, radiología o dermatología, donde está más desarrollada”, asegura Ribelles Entrena. No obstante, incluso donde hay más avances, la limitada digitalización del sistema sanitario dificulta la implementación del software y su integración en los flujos habituales de trabajo. Por ejemplo, en radiología se utiliza el llamado sistema de almacenamiento de imágenes médicas (PACS, por sus siglas en inglés) y cualquier desarrollo de IA debe adaptarse a la plataforma concreta que se aplique. “La única comunidad que tiene un PACS es Andalucía; aquí en Cataluña no tenemos un PACS único. Por tanto, si quiero implementar un software de imagen médica, necesito implementarlo y adaptarlo a seis, siete u ocho PACS diferentes. Y cada PACS tiene su intríngulis”, explica López Rueda.

Los especialistas consultados por Civio también advierten de la necesidad de mantener una postura crítica. Los sistemas de IA sanitaria suelen clasificarse en función de su finalidad y riesgo dentro de la clase IIa del reglamento europeo sobre productos sanitarios —salvo excepciones que puedan suponer mayores riesgos para los pacientes—. Por ello, deben contar con el marcado CE para poder ser comercializados, lo que a su vez exige realizar investigaciones clínicas al respecto. No obstante, muchos de estos software no se han probado en las condiciones necesarias, es decir, no han llegado a demostrar que brinden resultados superiores y mejores a lo que se utiliza en la actualidad.

“Tenemos que ser reticentes a la hora de implementar esto en la práctica asistencial. Deberíamos exigir: uno, estudios aleatorizados que demuestren que la lectura de la máquina es superior a la del especialista y dos, que este tipo de implementaciones son costo-eficaces”, señala López Rueda. Sin embargo, la situación actual dista de ser idónea. En palabras de Josep Malvehy Guilera, director de la Unidad de Cáncer cutáneo del Hospital Clínic de Barcelona: “Hay desconocimiento por parte de los profesionales, los usuarios que van a utilizar esto. Tengo la impresión que también por parte de los responsables de la compra de estos productos, porque si no exigirían algo más”. De hecho, tanto fuera como dentro de España, la mayoría de algoritmos no se han evaluado en estudios rigurosos (de carácter prospectivo o en ensayos clínicos aleatorizados), lo que implica que faltan validaciones externas e independientes. “Hay que exigir un poco más de seriedad. Si hiciéramos lo mismo con un antibiótico, nos meterían en la cárcel”, zanja Malvehy Guilera.

Artículo publicado originalmente en CIVIO

han comentado

Artículo Anterior Artículo Siguiente