Les assistants IA dans le domaine de la santé : la nouvelle porte d'entrée vers les soins de santé

Un patient se réveille avec des douleurs dorsales récurrentes et demande à un assistant IA quoi faire. L'application consulte son historique, repère une prescription antérieure et suggère de passer à un autre anti-inflammatoire. Votre molécule n'est pas mentionnée. Lorsque le patient consulte son médecin cet après-midi-là pour obtenir une ordonnance, le cadre est déjà posé.

L'adoption des assistants d'IA générative est déjà une réalité, tant du côté des patients que des professionnels de santé. Sur les plus de 800 millions d'utilisateurs de ChatGPT, 200 millions soumettent chaque semaine des requêtes liées à la santé. Les médecins ne font pas exception : 76 % d'entre eux ont recours à l'IA pour la prise de décision clinique, et plus de 60 % l'utilisent pour vérifier les interactions médicamenteuses. Open Evidence, une IA clinique conçue pour les médecins, enregistre 65 000 nouveaux utilisateurs chaque mois.

De plus, l'offre d'assistants basés sur l'IA générative se développe à un rythme effréné. En l'espace d'un seul trimestre, quatre des plus grandes entreprises technologiques ont lancé leurs propres assistants de santé basés sur l'IA: ChatGPT Health pour OpenAI, MedgeMMA 1.5 et MedASR pour Google, ainsi que Health AI d'Amazon One Medical, entre autres.

Pour le secteur pharmaceutique, alors que la recherche basée sur l'IA devrait dépasser la recherche traditionnelle d'ici 2028, il s'agit d'un enjeu crucial à trois égards :

  • Tout d'abord, l'invisibilité des marques: chaque médicament porte deux noms, un nom de marque et un nom scientifique (la DCI). Lorsque le contenu relatif à une marque n'est pas correctement référencé dans les sources utilisées par les modèles d'IA, la réponse par défaut est la DCI. Si vous interrogez la plupart des IA sur les remèdes contre les allergies, vous obtiendrez plus probablement « cétirizine 10 mg » qu'un nom de marque, ce qui risque de réduire à néant des années d'investissement publicitaire en une seule réponse.
  • Deuxièmement, la perte de contrôle sur le récit: ces modèles ne se limitent pas aux données cliniques validées. Ils puisent leurs informations sur Reddit, les forums de patients et les articles de blog, puis synthétisent le tout en une seule réponse qui semble faire autorité. Alors que les mentions de non-responsabilité médicale dans les résultats générés par l'IA sont passées de 26,3 % à moins de 1 % entre 2022 et 2025, un utilisateur postant « ce médicament a soigné ma peau en deux semaines » devient, après agrégation, un élément que l'IA présente comme une preuve quasi-médicale.
  • Troisièmement, la visibilité hors AMM: les médicaments sont autorisés pour des utilisations, des maladies, des populations et des schémas thérapeutiques spécifiques. Tout autre usage est considéré comme « hors AMM », et les modèles d'IA ne font pas cette distinction. Un médicament anticancéreux autorisé en deuxième intention mais ayant fait l'objet d'études en première intention ? Une IA pourrait le recommander en première intention.

Concrètement, la perte de contrôle sur le discours et la visibilité hors cadre réglementaire soulèvent une question réglementaire que le secteur pharmaceutique ne peut ignorer. La FDA et l’EMA exigent déjà des fabricants qu’ils surveillent les informations relatives aux effets indésirables des médicaments sur l’ensemble de leurs canaux numériques, une obligation qui s’est progressivement étendue aux réseaux sociaux. Aucune autorité de régulation n’a encore statué sur le fait que les résultats générés par l’IA constituent un canal soumis à surveillance. Mais il est difficile de rejeter cette extension logique.

GEO et RAG : c'est là que se joue réellement la visibilité de votre produit grâce à l'IA

Dans le référencement traditionnel, on se bat pour obtenir une place sur une page de dix résultats. C'était ça, le référencement naturel. Aujourd'hui, deux nouveaux terrains de bataille le remplacent à un rythme effréné, et ils fonctionnent différemment.

Le premier est le GEO (Generative Engine Optimization). C'est ainsi que vous apparaissez dans les grands modèles de langage généralistes (ChatGPT, Gemini, Perplexity) et les nouveaux assistants de santé. Ces systèmes puisent dans le Web ouvert et synthétisent le contenu en une seule réponse. Vous ne rivalisez pas pour un classement. Vous rivalisez pour figurer parmi les deux ou trois sources citées par le modèle. Ce qui compte : un contenu indexé sur le Web et lisible par machine, tel que des pages d'information destinées aux patients, des questions-réponses, des résumés en langage clair, des résumés structurés avec une association cohérente entre le nom international non commercial (INN) et la marque.

Le deuxième est le RAG (Retrieval-Augmented Generation). C'est ainsi que vous apparaissez dans des outils cliniques spécialisés tels qu'Open Evidence ou ClinicalKey AI, utilisés par les médecins au chevet du patient. Ces systèmes n'effectuent pas de recherche sur le Web. Ils puisent directement dans des bases de données médicales sélectionnées avec soin, telles que PubMed, Cochrane ou les recommandations cliniques. Ce qui importe ici : la qualité de la publication, des métadonnées PubMed complètes et des résumés structurés.

Deux questions qui nous sont souvent posées : l'IA sait-elle reconnaître si un médecin est influent ? Et peut-elle déterminer si une étude est de bonne qualité ? Réponse succincte aux deux : en quelque sorte, mais pas de la même manière qu'un être humain.
L'IA ne vérifie pas les qualifications d'un médecin ni ne lit la méthodologie d'une étude. Elle prend des raccourcis. Si le nom d'un médecin apparaît fréquemment dans la littérature médicale publiée, l'IA le citera davantage, non pas parce qu'elle a vérifié qui il est, mais parce qu'elle voit sans cesse son nom. Il en va de même pour les études : l'IA n'évalue pas la taille de l'échantillon ni la rigueur statistique. Elle examine la fréquence à laquelle l’étude est référencée ailleurs, la notoriété de la revue et la facilité avec laquelle le contenu peut être extrait. Un essai révolutionnaire enfoui dans une revue peu connue avec des métadonnées incomplètes risque de ne jamais refaire surface, tandis qu’une étude plus modeste publiée dans une revue de premier plan avec un résumé bien structuré sera citée partout. Pour l’industrie pharmaceutique, cela signifie que la visibilité de l’IA dépend autant du lieu de publication et de l’auteur de l’article que de la qualité scientifique de l’étude elle-même.

Quels changements pour les patients, les médecins généralistes et les spécialistes ?

Le patient est passé du simple fait de cliquer sur des liens classés à celui de donner suite à une réponse unique générée par l'IA. En France, 60 % des personnes ayant reçu une recommandation de santé issue de l'IA y ont donné suite, dont 17 % sans consulter de médecin. Aujourd’hui, les patients arrivent déjà informés aux consultations, après avoir interrogé des modèles de langage généraux (LLM). Pour les produits en vente libre (OTC), le risque commercial est immédiat et direct : si votre marque n’est pas citée, elle n’existe pas au moment de la décision d’achat. Pour les produits sur ordonnance, le risque est structurel : l’IA redéfinit les attentes des patients en amont de la consultation.

Le médecin généraliste (MG) est confronté à des patients dont les attentes sont façonnées par l'IA et à un rôle de plus en plus restreint dans les soins courants. Le précédent créé par l'Utah a encore accéléré cette évolution structurelle, cet État étant devenu le premier des États-Unis à autoriser le renouvellement de prescriptions par IA pour 190 médicaments destinés au traitement des maladies chroniques, au tarif de 4 dollars par renouvellement. Étant donné que les renouvellements de prescriptions représentent environ 80 % de l'ensemble des activités liées aux médicaments et que les prescriptions courantes sont en passe d'être automatisées, le MG se retrouve cantonné au traitement des cas exceptionnels et devient le point de contact le plus établi de l'industrie pharmaceutique.

Le spécialiste s'appuie de plus en plus sur des outils d'IA clinique comme premier filtre avant de prescrire. Ce qu'ils mettent en évidence détermine ce qui est pris en compte. Ce qu'ils ne mettent pas en évidence n'existe pas. C'est pourquoi l'indexation des publications – notamment les métadonnées complètes de PubMed, les résumés structurés et la publication dans des revues de premier plan – constitue le levier de visibilité le plus important dans le cadre de la prise de décisions cliniques.

Que faire ?

Faites le point dès maintenant. La première étape consiste à comprendre où vous en êtes aujourd'hui.

En interrogeant ChatGPT, Perplexity, Gemini, Open Evidence et, dès qu’ils seront disponibles, les assistants de santé, avec les dix questions les plus fréquemment posées par vos patients et vos médecins, vous identifierez les lacunes plus rapidement qu’avec n’importe quel audit interne. Par exemple : « Quel est le meilleur traitement pour le diabète de type 2 avec un taux d’HbA1c supérieur à 8 ? » : la réponse mentionne-t-elle votre marque ou seulement la DCI ? Cite-t-elle votre essai pivot ou celui d’un concurrent ? Indique-t-elle la posologie correcte ? Un produit largement cité dans le ChatGPT générique peut être totalement absent des recommandations personnalisées d’un assistant de santé si data cliniques structurées data incomplètes. L’analyse des lacunes qui en résulte constitue votre carte des risques.
Des plateformes telles que Profound ou Evertune peuvent aider à systématiser le suivi sur l’ensemble des plateformes. Ce type d’audit de référence produit des signaux exploitables à un coût quasi nul.

Exploitez votre corpus existant dans les six mois. Dans la plupart des cas, le problème ne réside pas dans le manque de contenu, mais dans la mise en forme. La reformatage des ressources existantes peut améliorer les taux de citation par l'IA jusqu'à 40 %.

Cela dit, tout ne doit pas nécessairement être optimisé : il est généralement sans risque de reformater les étiquettes approuvées et les essais cliniques publiés, tandis que la recherche hors AMM peut comporter des risques de non-conformité si elle est mise davantage en avant sans mesures de protection. Il est donc judicieux que les services des affaires médicales et de la réglementation définissent clairement ces limites dès le début.

À partir de là, les contenus à forte valeur ajoutée peuvent être réorganisés sous forme de questions-réponses qui reflètent la manière dont les patients et les professionnels de santé traitent l'information. Par exemple, transformer une étude clinique de 30 pages en une page structurée répondant à la question « Quelle est l'efficacité de l'atorvastatine contre l'hypercholestérolémie ? »

Il est utile de vérifier l'exhaustivité des métadonnées PubMed. Des métadonnées incomplètes restent la raison la plus courante pour laquelle des études de qualité restent invisibles dans les outils d'IA clinique.

Le fait d'associer systématiquement les noms communs aux noms scientifiques dans l'ensemble du contenu indexé aide également les modèles d'IA à apprendre à associer les deux, plutôt que de se rabattre systématiquement sur le nom scientifique.

Mettre en place une gouvernance dans un délai d'un an. Le périmètre de surveillance doit s'étendre de ce que vous publiez à ce que l'IA dit à votre sujet, qu'il s'agisse de modèles de langage généraux (LLM), d'outils d'IA cliniques ou d'assistants de santé.

Des contrôles trimestriels portant sur les allégations, les indications et data de sécurité des produits data détecter rapidement tout écart. Il est utile de définir des seuils d'escalade ; par exemple, si une IA recommande un anticoagulant à une dose deux fois supérieure à celle approuvée, cela devrait déclencher un examen immédiat par les services médicaux et réglementaires.

Il est tout aussi utile de classer les contenus en fonction de leur niveau d'accessibilité à l'IA. Certains peuvent être rendus entièrement accessibles sans risque, comme vos étiquettes approuvées ou vos essais cliniques publiés. D'autres peuvent être indexés, mais nécessitent une présentation minutieuse, à l'instar des données issues de la pratique clinique qui pourraient être mal interprétées sans contexte. Enfin, certains doivent rester totalement hors de portée de l'IA, comme data d'essais en cours data les résultats pré-autorisation qui ne sont pas encore prêts à être interprétés par le public.

Les organisations qui mettent en place ce cadre dès maintenant auront probablement une longueur d'avance lorsque la réglementation sera définitivement établie, plutôt que de devoir y réagir a posteriori.

Conclusion : L'histoire est déjà en train de s'écrire

La place de l'IA dans le secteur de la santé n'est pas une simple tendance, mais un véritable changement d'infrastructure.

  • Une fois établis, les schémas de cotation s'amplifient : les pionniers se forgent un avantage que les retardataires devront racheter pour rattraper leur retard.
  • Les outils cliniques basés sur la technologie RAG deviendront l'interface principale des spécialistes d'ici trois ans.
  • Le modèle de l'Utah pourrait s'étendre à l'échelle mondiale, réduisant ainsi de manière durable le contact avec le médecin généraliste.
  • Des assistants de santé spécialisés créent un nouvel intermédiaire permanent entre le patient et le médecin, ainsi qu'entre la marque et le prescripteur.

Par où commencer : suivez la chaîne d'influence, pas l'utilisateur final.

  • En ce qui concerne les médicaments délivrés sur ordonnance, le médecin reste l'instance décisionnaire. Veiller à ce que vos données cliniques soient facilement accessibles sur les plateformes RAG, les modèles de langage généraux (LLM) et les assistants de santé constitue aujourd'hui le moyen le plus direct d'influencer les pratiques de prescription.
  • Pour les médicaments en vente libre, l'intelligence artificielle remplace désormais le rayon comme premier point de découverte du produit, et si la réponse indique « cétirizine 10 mg » au lieu du nom de votre marque, le patient achète le générique le moins cher. Dans un secteur qui repose sur le volume et la prime de marque, c'est ainsi que l'on perd des parts de marché.

Selon votre portefeuille, ces deux voies peuvent être menées en parallèle ou se succéder, mais aucune ne doit être mise en attente.

 

Sources:

  • OpenAI, « Présentation de ChatGPT Health », janvier 2026
  • Fierce Healthcare / Sermo, « L'utilisation de l'IA par les médecins dans la prise de décision clinique », via l'American Hospital Association, octobre 2024
  • GV (Google Ventures), annonce de la série B d'OpenEvidence, 2025
  • Sharma A., Alaa A., Daneshjou R., « Avertissements médicaux dans les résultats des grands modèles linguistiques », npj Digital Medicine, octobre 2025
  • Galeon D., « Un adulte français sur trois a déjà interrogé une IA sur sa santé », Galeon, 2025
  • Aggarwal P., Murahari V., Rajpurohit T. et al., « GEO : Generative Engine Optimization », KDD 2024, Université de Princeton / IIT Delhi
  • ECRI, « Les 10 principaux risques liés aux technologies de la santé pour 2026 », janvier 2026
  • PharmaGEO, « Visibilité des marques par rapport aux DCI sur les principales plateformes de modèles de langage de grande capacité », 2025
  • Indegene / Tarun Mathur, « Du SEO au GEO : se réinventer à l'ère du contenu « zéro clic » », novembre 2025