AI para la salud: la nueva puerta de entrada a la asistencia sanitaria
Un paciente se despierta con un dolor de espalda recurrente y le pregunta a un AI qué debe hacer. La aplicación revisa su historial, detecta una receta anterior y sugiere cambiar a otro antiinflamatorio. Tu molécula no aparece mencionada. Para cuando el paciente acuda al médico esa misma tarde para que le recete algo, el panorama ya está claro.
La adopción de los asistentes de IA general ya es una realidad, tanto por parte de los pacientes como de los profesionales sanitarios. 200 millones de los más de 800 millones de usuarios de ChatGPT realizan consultas relacionadas con la salud cada semana. Los médicos no son una excepción: el 76 % utiliza AI la toma de decisiones clínicas y más del 60 % la utiliza para comprobar las interacciones entre medicamentos. Open Evidence, una AI clínica AI para médicos, suma 65 000 nuevos usuarios cada mes.
Además, la oferta de asistentes de IA general se está ampliando a un ritmo vertiginoso. En tan solo un trimestre, cuatro de las mayores empresas tecnológicas han lanzado sus propios asistentes AI : ChatGPT Health de OpenAI, MedgeMMA 1.5 y MedASR de Google, Health AI de Amazon One Medical, entre otros.
En el sector farmacéutico, dado que se prevé que AI superen a las búsquedas tradicionales para 2028, se trata de una situación apremiante en tres frentes:
- En primer lugar, la invisibilidad de las marcas: cada medicamento tiene dos nombres, uno comercial y otro científico (la DCI). Cuando el contenido de una marca no está bien indexado en las fuentes de las que se nutren AI , la respuesta por defecto es la DCI. Si le preguntas a la mayoría de las IA sobre remedios para la alergia, es más probable que te respondan «cetirizina 10 mg» en lugar de un nombre comercial, lo que podría echar por tierra años de inversión publicitaria en una sola respuesta.
- En segundo lugar, la pérdida de control narrativo: estos modelos no se limitan a la evidencia clínica aprobada. Recurren a Reddit, foros de pacientes y entradas de blogs, y sintetizan todo ello en una única respuesta que suena a autoridad. Dado que las advertencias médicas en AI han descendido del 26,3 % a menos del 1 % entre 2022 y 2025, un comentario de un usuario que diga «este medicamento me curó la piel en dos semanas» se convierte, tras la agregación, en algo que AI como evidencia casi médica.
- En tercer lugar, la visibilidad de los usos no indicados en la ficha técnica: los medicamentos se aprueban para usos, enfermedades, poblaciones y líneas de tratamiento específicos. Cualquier otro uso se considera «no indicado en la ficha técnica», y AI no hacen esa distinción. ¿Un medicamento contra el cáncer aprobado como tratamiento de segunda línea, pero estudiado como tratamiento de primera línea? Una AI recomendarlo como tratamiento de primera línea.
En conjunto, la pérdida de control sobre el discurso y la visibilidad fuera de lo establecido plantean una cuestión normativa que el sector farmacéutico no puede ignorar. La FDA y la EMA ya exigen a los fabricantes que supervisen la información sobre efectos adversos de los medicamentos en todos sus canales digitales, una obligación que se ha ido ampliando progresivamente a las redes sociales. Ningún organismo regulador ha dictaminado aún que AI constituyan un canal sujeto a supervisión. Pero es difícil descartar esa extensión lógica.
GEO y RAG: dónde se decide realmente AI de tu producto AI
En las búsquedas tradicionales, se compite por un puesto en una página de diez resultados. Eso era el SEO. Hoy en día, dos nuevos campos de batalla lo están sustituyendo a un ritmo vertiginoso, y funcionan de manera diferente.
El primero es el GEO (Generative Engine Optimization, optimización de motores generativos). Así es como apareces en los modelos de lenguaje grande (LLM) generalistas (ChatGPT, Gemini, Perplexity) y en los nuevos asistentes de salud. Estos sistemas extraen información de la web abierta y sintetizan el contenido en una única respuesta. No compites por un posicionamiento. Compites por ser una de las dos o tres fuentes que cita el modelo. Lo que importa: contenido indexado en la web y legible por máquinas, como páginas de información para pacientes, preguntas y respuestas, resúmenes en lenguaje sencillo y resúmenes estructurados con una combinación coherente de INN y marca.
El segundo es el RAG (Retrieval-Augmented Generation, o «generación aumentada por recuperación»). Así es como aparece en herramientas clínicas especializadas como Open Evidence o ClinicalKey AI, que utilizan los médicos en el punto de atención. Estos sistemas no realizan búsquedas en la web, sino que extraen la información directamente de bases de datos médicas seleccionadas, como PubMed, Cochrane o las guías clínicas. Lo que importa aquí es la calidad de la publicación, que los metadatos de PubMed estén completos y que los resúmenes estén estructurados.
Hay dos preguntas que nos hacen a menudo: AI si un médico es influyente? ¿Y puede determinar si un estudio es bueno? La respuesta breve a ambas es: más o menos, pero no de la misma forma que lo haría un humano.
AI consulta las credenciales de un médico ni lee la metodología de un estudio. Toma atajos. Si el nombre de un médico aparece con frecuencia en la literatura médica publicada, AI lo AI más, no porque haya comprobado quién es, sino porque sigue viendo su nombre. Lo mismo ocurre con los estudios: AI evalúa el tamaño de la muestra ni el rigor estadístico. Fija en la frecuencia con la que se hace referencia al estudio en otros lugares, en el renombre de la revista y en lo fácil que resulta extraer el contenido. Un ensayo pionero enterrado en una revista poco conocida con metadatos incompletos puede que nunca salga a la luz, mientras que un estudio más modesto en una revista de prestigio con un resumen bien estructurado se cita por todas partes. Para la industria farmacéutica, esto significa que AI depende tanto de dónde se publique y de quién firme el artículo como de la calidad de la ciencia en sí misma.
¿Qué cambia para los pacientes, los médicos de cabecera y los especialistas?
El paciente ha pasado de hacer clic en enlaces ordenados por relevancia a actuar basándose en una única respuesta AI. En Francia, el 60 % de quienes recibieron una recomendación AI la siguieron, y el 17 % lo hizo sin consultar a un médico. Hoy en día, los pacientes ya acuden a las consultas previamente informados, tras haber consultado modelos de lenguaje generalistas (LLM). En el caso de los productos de venta libre (OTC), el riesgo comercial es inmediato y directo: si no se menciona el nombre de su marca, esta no existe en el momento de la decisión de compra. En el caso de los productos con receta, el riesgo es estructural: AI redefiniendo las expectativas de los pacientes antes de la consulta.
El médico de cabecera se enfrenta a pacientes con expectativas AI y a un papel cada vez más reducido en la atención rutinaria. El precedente de Utah aceleró aún más este cambio estructural, al convertirse en el primer estado de EE. UU. en autorizar la renovación de recetas AI para 190 medicamentos destinados a enfermedades crónicas, a un coste de 4 dólares por renovación. Dado que las renovaciones de recetas representan aproximadamente el 80 % de toda la actividad relacionada con los medicamentos y que las recetas rutinarias se están automatizando, el médico de cabecera pasa a ocuparse de los casos excepcionales y se convierte en el punto de contacto más consolidado de la industria farmacéutica.
Los especialistas recurren cada vez más a AI clínica como filtro de primera línea antes de prescribir. Lo que estas herramientas revelan determina lo que se tiene en cuenta; lo que no revelan, no existe. Esto convierte a la indexación de publicaciones —como los metadatos completos de PubMed, los resúmenes estructurados y la publicación en revistas de primer nivel— en el factor más importante para la visibilidad en el ámbito de la toma de decisiones clínicas.
Qué hacer
Haz un diagnóstico ahora. El punto de partida es saber cuál es tu situación actual.
Consultar a ChatGPT, Perplexity, Gemini, Open Evidence y, a medida que estén disponibles, a los asistentes de salud, con las diez preguntas más frecuentes de tus pacientes y médicos, revela las deficiencias más rápido que cualquier auditoría interna. Por ejemplo: «¿Cuál es el mejor tratamiento para la diabetes tipo 2 con una HbA1c superior a 8?». ¿Menciona la respuesta tu marca o solo la DCI? ¿Cita tu ensayo clínico pivotal o el de un competidor? ¿Indica la dosis correcta? Un producto muy citado en el ChatGPT genérico puede estar totalmente ausente de las recomendaciones personalizadas de un asistente de salud si data clínicos estructurados data incompletos. El análisis de brechas resultante es su mapa de exposición.
Plataformas como Profound o Evertune pueden ayudar a sistematizar el seguimiento entre plataformas. Este tipo de auditoría de referencia genera señales procesables a un coste casi nulo.
Aprovecha tu material existente en un plazo de seis meses. En la mayoría de los casos, el problema no es la falta de contenido, sino el formato. Reformatear los recursos existentes puede mejorar las tasas AI hasta en un 40 %.
Dicho esto, no todo debe optimizarse: por lo general, es seguro reformatear el material de etiquetado aprobado y los ensayos publicados, mientras que la investigación fuera de indicación puede entrañar riesgos de incumplimiento normativo si se le da mayor visibilidad sin las medidas de protección adecuadas. Es recomendable que los departamentos de Asuntos Médicos y Regulatorios definan esos límites desde el principio.
A partir de ahí, los contenidos de gran valor pueden reestructurarse en formatos de preguntas y respuestas que reflejen la forma en que los pacientes y los profesionales sanitarios procesan la información. Por ejemplo, convertir un estudio clínico de 30 páginas en una página estructurada que responda a la pregunta: «¿Qué eficacia tiene la atorvastatina para tratar el colesterol alto?».
Vale la pena comprobar que los metadatos de PubMed estén completos. La falta de datos completos sigue siendo la razón más habitual por la que los buenos estudios pasan desapercibidos en AI clínica.
La asignación coherente de los nombres comunes (INN) a los nombres científicos en todo el contenido indexado también ayuda a AI a aprender a asociar ambos términos, en lugar de recurrir por defecto al nombre científico.
Establecer un marco de gobernanza en el plazo de un año. El ámbito de supervisión debe ampliarse para abarcar no solo lo que se publica, sino también lo que AI sobre uno, incluyendo los modelos de lenguaje grandes (LLM) de carácter general, AI clínicas y los asistentes de salud.
Las comprobaciones trimestrales de las afirmaciones sobre el producto, sus indicaciones y data de seguridad data detectar desviaciones en una fase temprana. Resulta útil definir umbrales de escalado; por ejemplo, si una AI un anticoagulante a una dosis que duplica la aprobada, esto debería dar lugar a una revisión inmediata por parte de los departamentos de Asuntos Médicos y Regulación.
Es igualmente útil clasificar el contenido según el nivel de AI . Algunos pueden hacerse totalmente accesibles sin riesgo alguno, como las etiquetas aprobadas o los ensayos clínicos publicados. Otros pueden indexarse, pero requieren una presentación cuidadosa, como la evidencia del mundo real, que podría malinterpretarse sin el contexto adecuado. Y otros deben mantenerse totalmente fuera AI , como data de ensayos en curso data los resultados previos a la aprobación que aún no están listos para ser interpretados por el público.
Las organizaciones que establezcan este marco ahora probablemente se adelanten a la normativa cuando esta se consolide, en lugar de limitarse a reaccionar ante ella.
Conclusión: La historia ya se está escribiendo
AI en el sector sanitario no es una moda pasajera, sino un cambio en la infraestructura.
- Una vez establecidos, los patrones de cotización se acumulan: los pioneros se hacen con una ventaja que los que llegan más tarde tendrán que pagar para recuperar.
- Las herramientas clínicas basadas en RAG se convertirán en la interfaz predominante para los especialistas en un plazo de tres años.
- El modelo de Utah podría extenderse a nivel mundial, reduciendo de forma permanente el punto de contacto con el médico de cabecera.
- Los asistentes sanitarios especializados están creando un nuevo enlace permanente entre el paciente y el médico, así como entre la marca y el profesional que prescribe el medicamento.
Por dónde empezar: sigue la cadena de influencia, no al usuario final.
- En el caso de los medicamentos con receta, el médico sigue siendo quien toma la decisión. Garantizar que su evidencia clínica sea fácilmente accesible en las plataformas RAG, los modelos de lenguaje generalistas (LLM) y los asistentes de salud es la forma más directa de influir en el comportamiento prescriptivo que existe en la actualidad.
- En el caso de los medicamentos de venta libre, AI sustituyendo al expositor como primer punto de contacto con el producto, y si la respuesta indica «cetirizina 10 mg» en lugar de tu marca, el paciente compra el genérico más barato. En una categoría basada en el volumen y la prima de marca, así es como se pierde cuota de mercado.
Dependiendo de tu cartera, estas dos vías pueden desarrollarse en paralelo o de forma secuencial, pero ninguna de ellas debe quedar en suspenso.
Fuentes:
- OpenAI, «Presentamos ChatGPT Health», enero de 2026
- Fierce Healthcare / Sermo, «El uso de AI por parte de los médicos AI la toma de decisiones clínicas», a través de la Asociación Americana de Hospitales, octubre de 2024
- GV (Google Ventures), Anuncio de la ronda de financiación Serie B de OpenEvidence, 2025
- Sharma, A., Alaa, A. y Daneshjou, R., «Avisos legales médicos en los resultados de los modelos de lenguaje a gran escala», npj Digital Medicine, octubre de 2025
- Galeon D., «Uno de cada tres adultos franceses ya ha consultado a una AI su salud», Galeon, 2025
- Aggarwal, P., Murahari, V., Rajpurohit, T. et al., «GEO: Generative Engine Optimization», KDD 2024, Universidad de Princeton / IIT Delhi
- ECRI, «Los 10 principales riesgos tecnológicos en el ámbito de la salud para 2026», enero de 2026
- PharmaGEO, «Visibilidad de las marcas frente a los nombres comunes internacionales (INN) en las principales plataformas de modelos de lenguaje grande (LLM)», 2025
- Indegene / Tarun Mathur, «Del SEO al GEO: una nueva orientación para la era del contenido sin clics», noviembre de 2025

BLOG







