健康人工智能助手:医疗保健的新入口

一名患者因反复发作的背痛醒来,便询问人工智能助手该怎么办。该应用程序查阅了病历,注意到之前的处方,并建议换用另一种抗炎药。你的药物并未被提及。等到当天下午患者去看医生开处方时,局面已然定型。

无论在诊疗的哪一端,生成式人工智能(GenAI)助手的应用已然普及。在ChatGPT超过8亿的用户中每周有2亿人提交与健康相关的查询医生也不例外:76%的医生在临床决策中使用人工智能,超过60%的医生通过人工智能检查药物相互作用。专为医生打造的临床人工智能平台Open Evidence,每月新增6.5万名用户。

此外,生成式人工智能(GenAI)助手的市场正在以极快的速度扩张。仅在一个季度内,四家最大的科技公司就相继推出了各自的人工智能健康助手:OpenAI的ChatGPT Health、谷歌的MedgeMMA 1.5和MedASR,以及亚马逊One Medical的Health AI等。

对于制药行业而言,鉴于人工智能搜索预计将在2028年前超越传统搜索,这在以下三个方面构成了紧迫的挑战:

  • 首先是品牌“隐形”问题:每种药物都有两个名称,即商品名和通用名(INN)。当AI模型所参考的来源中某品牌的相关内容索引不全时,系统会默认给出通用名。若向大多数AI询问缓解过敏的方法,得到的答案很可能是“西替利嗪10毫克”,而非具体品牌名,这意味着企业多年来的广告投入可能在一瞬间化为乌有。
  • 其次,叙事控制权的丧失:这些模型并不局限于经批准的临床证据。它们从Reddit、患者论坛、博客文章中汲取信息,并将所有内容综合成一个听起来颇具权威性的答案。 随着2022年至2025年间AI输出内容中的医疗免责声明比例从26.3%降至不足1%,用户发布的“这种药两周内就治好了我的皮肤问题”这类内容,在经过聚合处理后,会被AI呈现为近乎医学证据的信息。
  • 第三,超适应症可见性:药物获批时通常限定了具体的用途、适应症、适用人群及治疗线。除此之外均属“超适应症”,而人工智能模型无法做出这种区分。例如,一种获批用于二线治疗但曾作为一线治疗进行研究的抗癌药物?人工智能可能会将其推荐为一线治疗方案。

叙事控制权的丧失与标签外信息的可见性相结合,共同引发了一个制药行业无法忽视的监管问题。美国食品药品监督管理局(FDA)和欧洲药品管理局(EMA)已要求制造商对其数字渠道上的药物不良反应信息进行监测,这一义务已逐步扩展至社交媒体。目前尚无监管机构裁定人工智能生成的内容构成受监管的渠道。但这种逻辑延伸难以被忽视。

GEO 和 RAG:决定您产品 AI 可见性的关键所在

在传统的搜索中,你是在争夺搜索结果页面上十个位置中的一个。这就是SEO。如今,两个新的战场正以迅猛之势取而代之,且运作方式截然不同。

第一种是 GEO(生成式引擎优化)。这是您在通用大型语言模型(ChatGPT、Gemini、Perplexity)以及新型健康助手中展示内容的方式。这些系统从公开网络中提取信息,并将内容整合成一个统一的答案。 您无需争夺排名,而是要争取成为模型引用的两到三个来源之一。关键在于:被网络索引且机器可读的内容,例如患者教育页面、问答集、通俗易懂的摘要,以及包含一致INN-品牌配对的结构化摘要。

第二种是 RAG(检索增强生成)。这就是您在 Open Evidence 或 ClinicalKey AI 等专业临床工具中的呈现方式,这些工具被医生在诊疗现场使用。这些系统不会搜索网络,而是直接从经过筛选的医学数据库(如 PubMed、Cochrane 以及临床指南)中提取信息。这里的关键在于:出版物的质量、完整的 PubMed 元数据以及结构化摘要。

我们经常被问到两个问题:人工智能能判断一位医生是否有影响力吗?它能分辨一项研究是否优质吗?这两个问题的简短回答是:某种程度上可以,但方式与人类不同。
AI不会去查验医生的资质,也不会阅读研究的方法论。它走的是捷径。如果某位医生的名字频繁出现在已发表的医学文献中,AI就会更多地引用他,不是因为它核实过此人的身份,而是因为它不断看到这个名字。研究也是如此:AI不会评估样本量或统计严谨性。 它关注的是该研究在其他文献中被引用的频率、期刊的知名度,以及内容的提取难易程度。一篇发表在知名度较低期刊中、元数据不完整的开创性试验可能永远不会被发现,而一篇发表在顶级期刊上、摘要结构清晰的小规模研究却会被到处引用。对于制药企业而言,这意味着AI的可见度不仅取决于科学本身的质量,还取决于发表的期刊以及论文的署名者。

患者、全科医生和专科医生将面临哪些变化

患者的行为模式已从点击浏览排名靠前的链接,转变为直接采纳单条由人工智能生成的答案。在法国,60%收到人工智能健康建议的患者采纳了该建议,其中17%的人甚至未曾就医。 如今,患者在就诊前已通过查询通用大型语言模型(LLMs)获取了相关信息。对于非处方药(OTC)而言,商业风险是即时的且直接的:如果您的品牌名称未被提及,那么在购买决策环节,该品牌便等同于不存在。对于处方药而言,风险则是结构性的:AI正在重塑患者在就诊前的预期。

全科医生(GP)面临着患者对人工智能(AI)抱有高期待,以及其在常规诊疗中角色日益缩小的双重挑战。犹他州的先例进一步加速了这一结构性转变——该州成为美国首个批准由人工智能驱动的190种慢性病药物处方续开服务的州,每次续开费用为4美元。鉴于处方续开约占所有用药活动的80%,且常规处方正逐步实现自动化,全科医生正逐渐转型为“例外情况处理者”,并成为制药行业最成熟的接触点。

专家在开具处方前,越来越依赖临床人工智能工具作为第一道筛选。该工具呈现的内容决定了哪些信息会被纳入考量;未被呈现的内容则等同于不存在。这使得出版物索引——例如完整的PubMed元数据、结构化摘要以及在顶级期刊上的发表——成为临床决策过程中提升可见度的最重要手段。

该怎么办

立即进行诊断。第一步是了解您目前的状况。

通过查询ChatGPT、Perplexity、Gemini、Open Evidence以及未来可用的健康助手,并结合患者和医生最常提出的十大问题,能比任何内部审计更快地揭示信息缺口。例如,“对于糖化血红蛋白(HbA1c)超过8的2型糖尿病患者,最佳治疗方案是什么?”:答案中是否提到了您的品牌,还是仅提及了国际非专利名(INN)?它引用的是您的关键性试验,还是竞争对手的试验? 是否给出了正确的剂量?如果结构化临床数据不完整,一款在通用版ChatGPT中被频繁提及的产品,可能完全缺席于健康助手的个性化推荐中。由此产生的差距分析就是您的风险暴露图。
Profound或Evertune等平台可帮助系统化地跨平台追踪。此类基线审计能以近乎零成本产生可操作的信号。

请在6个月内对现有内容库进行优化。在大多数情况下,问题并不在于内容匮乏,而在于格式问题。重新格式化现有内容资产可将AI引用率提高多达40%。

话虽如此,并非所有内容都应进行优化:经批准的标签和已发表的临床试验通常可以安全地重新排版,而未经批准的适应症研究若在缺乏监管措施的情况下被更广泛地公开,则可能带来合规风险。医学事务和监管事务部门尽早界定这一边界是明智之举。

在此基础上,高价值内容可以重组为问答形式,这种形式能反映患者和医疗助理处理信息的方式。例如,将一份30页的临床研究报告改编成一个结构化的页面,回答“阿托伐他汀对高胆固醇有多大疗效?”

值得检查PubMed元数据的完整性。元数据不完整仍是优质研究在临床人工智能工具中难以被发现的最常见原因。

在所有收录内容中保持INN名称与品牌名称的一致性,也有助于AI模型学会将二者建立关联,而非默认使用学名。

在一年内建立治理机制。监管范围需从您发布的内容扩展至AI对您的评价,涵盖通用大型语言模型、临床AI工具及健康助手。

每季度对产品宣称、适应症和安全性数据进行测试,有助于及早发现偏差。设定升级阈值非常有用,例如,如果人工智能推荐的抗凝血剂剂量达到批准剂量的两倍,应立即触发医学事务和监管部门的审查。

按 AI 可访问程度对内容进行分类同样很有用。有些内容可以安全地完全公开,例如已获批准的标签和已公布的临床试验。有些内容可以被索引,但需要谨慎处理,例如缺乏上下文可能会被误解的真实世界证据。还有些内容则应完全置于 AI 无法触及的范围之外,例如正在进行的试验数据或尚未准备好供公众解读的上市前结果。

现在就构建这一框架的组织,在监管政策最终确定时,很可能已抢占先机,而非被动应对。

结论:这段叙事正在书写之中

人工智能在医疗保健领域的应用并非一种趋势,而是一场基础设施的变革。

  • 一旦形成,引用模式就会产生累积效应:先行者建立起优势,而后来者则不得不付出代价来追赶。
  • 基于RAG的临床工具将在三年内成为专科医生主要使用的界面。
  • 犹他州模式可能会在全球范围内推广,从而永久性地压缩全科医生与患者的接触点。
  • 专业的健康助理正在患者与医生之间、以及品牌与处方医生之间,建立一种全新的、持久的桥梁。

从何入手:追踪影响力链,而非终端用户。

  • 对于处方类产品,医生仍是最终决策者。确保您的临床证据能在RAG平台、通用大型语言模型(LLMs)和健康助手中被检索到,是当前影响处方行为最直接的手段。
  • 对于非处方药而言,人工智能正取代货架,成为消费者发现产品的第一渠道。如果搜索结果显示的是“西替利嗪10毫克”而非具体品牌,患者就会购买最便宜的仿制药。在一个以销量和品牌溢价为基础的品类中,市场份额正是这样流失的。

根据您的投资组合情况,这两条路径可以并行推进,也可以依次进行,但都不应因此而延误。

 

来源

  • OpenAI,《ChatGPT Health 简介》,2026年1月
  • Fierce Healthcare / Sermo,《医生在临床决策中使用人工智能》,通过美国医院协会发布,2024年10月
  • GV(谷歌风投),OpenEvidence B轮融资公告,2025年
  • Sharma A.、Alaa A.、Daneshjou R.,《大型语言模型输出中的医疗免责声明》,《npj Digital Medicine》,2025年10月
  • Galeon D.,《三分之一的法国成年人曾向人工智能咨询过健康问题》,Galeon,2025年
  • Aggarwal P.、Murahari V.、Rajpurohit T. 等,《GEO:生成式引擎优化》,KDD 2024,普林斯顿大学 / 德里印度理工学院
  • ECRI,《2026年十大医疗技术风险》,2026年1月
  • PharmaGEO,《各大大型语言模型平台上的品牌与国际非专利名(INN)可见度》,2025年
  • Indegene / 塔伦·马图尔,《从SEO到GEO:为零点击内容时代重塑策略》,2025年11月