Cómo investigué a SERMAS GPT, la IA que se coló en los hospitales de Madrid

sermas gpt madrid enfermedades raras

Cada vez me preocupa más cómo contamos la IA. La tarea de los periodistas es crucial para que la sociedad tenga información real y completa sobre la IA: lo que significan sus avances pero también quiénes están detrás de sus hilos, qué piensan y cómo está siendo configurada. 

Mi investigación sobre SERMAS GPT ha revelado cómo la inteligencia artificial puede infiltrarse en servicios públicos sin controles adecuados. Examinar su creación, sus sesgos y sus contratos se convierte en un ejercicio urgente para el periodismo de investigación: una hoja de ruta para exigir transparencia y responsabilidad en la era de la IA. Aquí cuento un poco mejor cómo fue ese proceso.

Cuando el servicio público de Salud de Madrid instaló una herramienta de inteligencia artificial llamada SERMAS GPT en los ordenadores de todos los médicos de atención primaria de la región, hubo comunicado de prensa, pero no aprobación de un comité médico, ni formación a los profesionales que tenían que usarla, ni mucho menos el código abierto que se decía tener. Y ahí estaba, operativa en un botón de la interfaz que utilizan todos los médicos de primaria de Madrid, lista para recoger los datos de la historia clínica de los pacientes, procesar información sensible y ofrecer consejo médico. 

En 2023 me propuse investigar cómo podía haberse desplegado un sistema así con tan poco escrutinio público. Durante semanas hablé con médicos, eticistas, investigadores en IA y expertos en contratación pública; revisé expedientes oficiales y presenté solicitudes de información al gobierno regional.

Lo que emergió fue la historia de una IA introducida sin supervisión, y uno de los casos en los que el sector privado cuela su AI en administraciones públicas. SERMAS GPT se había desarrollado sin la participación de un solo profesional de la salud y nunca había sido validada por un comité médico. 

Los expertos que entrevisté identificaron sesgos racistas y sexistas en sus resultados y explicaron los riesgos que estos sesgos planteaban en un entorno clínico. Aunque las autoridades afirmaban que el sistema era de código abierto, nunca facilitaron acceso a su repositorio. La investigación confirmó que SERMAS GPT no era una aplicación como se hacía entender, sino un conjunto de llamadas a la API del modelo GPT-4 de OpenAI, alojado en los servidores Azure de Microsoft. No era distinto que hablar con ChatGPT. 

Cuando me puse a buscar la documentación, encontré que tampoco había contrato como tal. El sistema había sido implementado por Fundación29, una organización poco conocida que, junto con Microsoft, firmó un simple acuerdo con el gobierno regional —un acuerdo que no describía tareas, ni imponía obligaciones formales ni mecanismos de rendición de cuentas a las empresas implicadas. Juristas consultados lo describieron como “un experimento tipo sandbox”, aunque ninguno pudo justificar que se implementara en un servicio público de salud sin un expediente administrativo. La junta directiva de Fundación29 incluía ejecutivos de Microsoft y empleados a tiempo completo de empresas biotecnológicas y farmacéuticas, lo que planteaba dudas adicionales sobre posibles conflictos de interés.

El aspecto de la protección de datos en SERMAS GPT tampoco estaba en orden. Nuestra investigación reveló importantes fallos en las medidas destinadas a salvaguardar la información médica y personal —fallos que podrían exponer los datos más sensibles de los pacientes.

Los hallazgos se publicaron en tres reportajes de investigación en Newtral [1, 2 y 3] y llegaron finalmente a la Asamblea de Madrid, donde diputados de la oposición pidieron explicaciones al gobierno. 

El caso de SERMAS GPT demuestra que la fiscalización de la IA no es opcional: es una condición para proteger los derechos de los ciudadanos y garantizar que la innovación no erosione la confianza en lo público. La metodología de esta investigación —analizar el origen técnico, legal y ético de estas herramientas— demostró el valor de un escrutinio sistemático y puede convertirse en un estándar de accountability periodístico para auditar la inteligencia artificial allí donde se aplique.

Archivo:
Sermas GPT, la IA de la Comunidad de Madrid para enfermedades raras, aún no ha pasado la validación de un comité médico
Cómo es el acuerdo de Madrid con Microsoft y Fundación 29 para que sus médicos usen su IA
Qué pasa con la protección de datos en Sermas GPT, la IA generativa de Madrid para enfermedades raras

Gobernanza, representación y derechos en la IA

Edificio Metrópolis, Madrid

Muchas reflexiones e ideas nos inspiró Daniel Innerarity hoy en el encuentro con investigadores, periodistas, organizaciones civiles y representantes del sector tecnológico. Afuera el edificio Metrópolis que se alzaba sobre los 38°C de Gran Vía y Alcalá nos sirvió de marco para debatir conjuntamente sobre los retos y derechos que conlleva una IA en democracia. Una IA que impuesta a través de narrativas tecnosolucionistas, exige tremendos recursos sin control de los habitantes a los que afecta y no significa lo mismo para todos. Como dijo el filósofo, «hay muchos seres humanos en el loop de la IA, y muchos de ellos están mal pagados».

Para leer más sobre el tema, el número 138 de la Revista CIDOB d’Afers Internacionals «Desigualdad algorítmica. Gobernanza, representación y derechos en la IA» que acaba de publicarse y está disponible online.

Jornada FUNDAE: Nuevos perfiles en el periodismo

Jornada FUNDAE Periodismo IA

«Los ingenieros nos dicen que los medios hemos cuidado muy poco los datos de nuestras audiencias», uno de los apuntes que se escuchó en nuestra mesa redonda ayer en Fundae, de boca de Pilar Sánchez-García, investigadora de la IA de la Universidad de Valladolid.

Como periodistas tenemos que escuchar más a los ingenieros y sobre todo, preguntarles más, entender lo que está pasando con la IA para tomarla como una herramienta útil al periodismo, sobre todo para tenerla de nuestro lado en estos tiempos de desinformación, y que sirva a los intereses del público y no a los de unas pocas plataformas. La jornada organizada por Fundae fue un espacio excelente para tratar este y otros temas. Nuestra mesa «Nuevas oportunidades en el periodismo: IA, perfiles y formación» nos reunió a esta investigadora, a Marcelo Ortega y a mí para conversar sobre los perfiles periodísticos del futuro que ya podemos intuir. O eso intentamos.

El reportaje finalista del premio ESET 2024

premio eset 2024

Este año estuve indagando en la integración con IA que hizo la Comunidad de Madrid en la app que utilizan todos los médicos de atención primaria en esta comunidad, y uno de esos reportajes me ha hecho quedar finalista en los VIII Premios ESET 2024, en la categoría de Prensa Digital.

Aunque siempre se suele publicitar mucho el uso de IA en los anuncios del gobierno, cuesta encontrar más información sobre cómo se hacen esas implementaciones, qué pasa con los datos, quién está detrás y cuáles son sus intereses.

Todo lo que averigüé sobre la app Sermas GPT fue publicado en tres reportajes justo antes de mi baja maternal: uno en el que contaba cómo funciona, y que fue el premiado; otro en el que analizábamos el tipo de acuerdo entre gobierno y las empresas que lo implementaron y uno en el que constamos la falta de garantías sobre los datos personales de los pacientes. Aunque no creas mucho en ellos, siempre es un gusto recibir un premio, y más aún cuando sirve para visibilizar contratos y algoritmos usados en la esfera pública y pagados con nuestros impuestos que no se explican con transparencia.

Cómo puede impactar la IA en la desinformación

Cuadernos de periodistas 48

Ya está en abierto el artículo que escribí para Cuadernos de Periodistas #48 [PDF]: Cómo puede impactar la IA en la desinformación: el periodismo en la era de los deepfakes.

Inteligencia artificial y desinformación son los temas del momento, desde que Donald Trump ha asumido la presidencia acompañado de Elon Musk, ni les cuento. Unos meses antes de esto, la Asociación de la Prensa de Madrid me invitó a escribir en el último número de sus Cuadernos de Periodismo sobre cómo puede impactar la IA en la desinformación. El artículo sobre el periodismo en la era de los deepfakes ya está disponible en PDF [Archivo].

Cuadernos de periodistas 48

Sermas GPT, la IA de los médicos en Madrid, y el protocolo que no responsabiliza a nadie

sermas gpt contrato

Cuando publicamos el primer artículo en Newtral sobre Sermas GPT, donde revelamos que a 6 meses de su implementación no había pasado por un comité de ética médica, seguían surgiendo preguntas para las que aún no encontrábamos respuesta.

Concretamente, sobre el tipo de acuerdo o contrato que habían firmado la Comunidad de Madrid (CAM), la Fundación 29 y Microsoft para implementarlo. La CAM respondió con un documento a la petición de información que había hecho el entonces diputado de Mas Madrid en la Asamblea de Madrid: un protocolo de declaración de intenciones.

¿Qué significa un protocolo? ¿Tiene la misma fuerza que un convenio o un contrato con la administración pública? Hablé con expertos en contratación pública que lo analizaron y nos explicaron que esta declaración de intenciones no compromete a las partes a nada ni fija obligaciones ni derechos. También nos preguntamos por la Fundación 29: cofundada por un directivo de Microsoft, y dirigida por otro más, en su junta hay representantes de farmacéuticas y empresas de biotecnología. Su financiación proviene de farmacéuticas. Toda la información la publicamos en este segundo reportaje sobre Sermas GPT.

[Archivo]

Sermas GPT: Un ChatGPT para detectar enfermedades raras en Madrid

sermas gpt madrid enfermedades raras

Hace 6 meses la Comunidad de Madrid y Microsoft anunciaron un acuerdo para que los médicos de atención primaria de 425 centros utilicen una herramienta con IA, un ChatGPT, para detectar enfermedades raras, llamada Sermas DPT. La noticia me llamó la atención por un artículo donde Manuel Ángel Méndez hablaba sobre todo del malestar de los médicos, que se enteraban por la prensa de esto, en contraste con otras publicaciones que se limitaban a repetir frases de la nota de prensa del gobierno y Microsoft.

Empecé a preguntar hace meses sobre Sermas GPT, y encontré varias cosas:

Esta herramienta se integró en el sistema informático de salud casi inmediatamente pero hoy aún hoy 6 meses despúes no ha pasado la validación de un comité médico. Los expertos han encontrado fallos: arroja resultados sexistas y racistas. Los médicos sólo han recibido un instructivo para saber cómo meter los datos.

Tampoco es realmente una app, sino un conjunto de APIs conectadas a GPT-4 en los servidores Azure de Microsoft. Es decir, es como hablar con ChatGPT para preguntarle por el diagnóstico de enfermedades raras tras darle unos síntomas. Microsoft mismo ha asegurado en un estudio que ChatGPT no ha pasado por un entrenamiento médico específico, la información que tiene es la que ha recopilado de internet.

No hay un código abierto, a pesar que desde la administración nos han dicho que así es, y faltan respuestas a muchas preguntas. Hablé con la administración, con la empresa responsable del software y con los médicos para pedirlas. Este es el primer artículo que escribí sobre Sermas GPT: Sermas GPT, la IA de la Comunidad de Madrid para enfermedades raras, aún no ha pasado la validación de un comité médico.

[Archivo]