这是科睿研究院第717篇原创内容。
字数3836字,阅读全文大约需要8分钟。
“打开手机就能问健康问题,不用排队、不用尴尬,AI比医生还‘有耐心’”——如今,这样的场景已不再陌生。2026年开春以来,科技巨头们纷纷加码健康AI赛道:微软推出可关联病历的Copilot Health,亚马逊将Health AI向大众开放,OpenAI的ChatGPT Health、Anthropic的Claude也早已布局其中。
AI健康工具的数量达到了前所未有的规模,它们打着“便捷、高效、个性化”的旗号,试图填补医疗资源的缺口,成为人们身边的“私人健康助手”。但热闹背后,一个值得深思的问题始终萦绕在我们心头:这些AI工具的效果究竟如何?它们是能为医疗资源有限的人群带来希望的曙光,还是可能在未被充分验证的情况下,埋下健康隐患?在没有足够多独立测试的支撑下,我们难以确定,这份“智能守护”最终会成为助力,还是潜藏着未知的伤害。
医疗资源的不均衡、就医流程的繁琐,让大众对便捷健康咨询的需求日益迫切,而AI技术的迭代的突破,恰好踩中了这一痛点,推动健康AI工具迎来爆发式增长。这场风口的到来,从来不是偶然,而是技术进步与市场需求双向奔赴的结果,只是在喧嚣的趋势之下,我们既能看到希望,也能窥见隐忧。

AI健康工具的崛起,本质上是对现有医疗体系痛点的回应。在现实生活中,许多人面临着“看病难”的困境:偏远地区医疗资源匮乏,普通人挂号排队动辄数小时,轻微不适不愿占用医疗资源,隐私性健康问题难以向医生启齿。
而AI健康工具的出现,似乎提供了一种解决方案——全天候在线、不带评判、响应迅速,恰好契合了大众对便捷健康咨询的核心需求。微软发布的报告显示,其Copilot移动应用每天会收到5000万个健康相关问题,健康话题已然成为平台上最热门的讨论方向,这一数据背后,是无数人对便捷健康服务的迫切渴望。
技术的突破性进步,为健康AI工具的落地提供了可能。微软人工智能健康部门副总裁、前外科医生多米尼克·金直言,生成式AI在解答健康问题、提供优质回应方面的能力提升,是微软推出Copilot Health的核心原因。作为当前健康AI工具的核心支撑,大语言模型的迭代让AI能够更精准地理解复杂的健康问题,甚至能解析医疗数据、提供个性化建议。Copilot Health可连接美国超过50000家医院和医疗机构的健康数据,在获得用户许可后,能查看测试结果、病史、用药情况,甚至整合Apple Watch等可穿戴设备的数据,将复杂医学术语转化为通俗易懂的语言,为用户提供可落地的健康洞察。
optometryadvisor.com
各大科技企业的纷纷入局,让面向大众的健康AI正式成为行业趋势。除了微软的Copilot Health,亚马逊将此前仅对One Medical会员开放的Health AI推向大众,OpenAI的ChatGPT Health、Anthropic的Claude也凭借大语言模型优势,加入健康咨询赛道。这些工具的宣传愿景十分美好:帮助用户判断是否需要就医,为轻微病症提供居家管理建议,为慢性病人提供长期健康指导,既减轻用户的就医负担,也缓解医疗系统的压力。但正如西奈山医疗系统的首席人工智能官吉里什·纳德卡尼所言,这些工具能占据一席之地,核心是因为“获取医疗服务并不容易,对特定人群来说更是难上加难”,而这份需求背后,也隐藏着对工具安全性的极高期待。
面对井喷的AI健康工具,企业纷纷宣称已对产品进行严格测试,确保回复的安全性和实用性。OpenAI就专门推出了HealthBench基准测试工具,联合60个国家和地区的262位执业医师,收录5000份真实医疗对话场景,用于评估大语言模型在健康场景中的表现,其GPT-5模型在该测试中的得分远优于前代产品。微软也表示,Copilot Health的开发有230多位医生参与,对安全性进行了严格审查,还采用加密技术保护用户健康数据,与普通Copilot聊天记录分开存储,保障隐私安全。
但这些企业自测的局限性,早已被研究人员和专家点破。牛津互联网研究所的博士生安德鲁·宾及其同事的研究发现,即便大语言模型能在虚构场景中准确识别病症,缺乏医学专业知识的普通用户,在AI辅助下也只有三分之一的概率得出正确结论。
这是因为用户可能不知道该向AI提供哪些关键信息,也可能误读AI给出的建议,而HealthBench等测试工具的场景的是由AI生成的,与真实用户的使用场景存在差距,无法完全反映工具的实际表现。更值得注意的是,OpenAI报告显示,其旗舰版GPT-5.4在主动寻求上下文信息方面,反而不如早期版本的GPT-5.2,这意味着AI在面对复杂健康问题时,仍可能因信息不足给出不准确建议。
第三方独立评估的缺失,更是让AI健康工具的安全性蒙上一层阴影。在健康这一关乎生命安全的领域,仅依靠企业自身评估显然不够——即便企业的研究足够严谨,也难免存在认知盲区,而广泛的科研界才能助力填补这些空白。

图自unsplash
谷歌的AMIE医疗AI模型就是一个典型案例,其在测试中展现出与人类医生相当的诊断准确率,且未出现重大安全隐患,但谷歌并未急于推向市场,而是表示仍需解决公平性、公正性等方面的局限,继续开展安全测试。反观当前已推出的多数健康AI工具,在面向大众之前,几乎没有经过独立专家的严格评估,西奈山医院的研究就发现,ChatGPT Health有时会为轻微病症推荐过度诊疗方案,还可能遗漏紧急情况,这一问题引发了人们对工具安全性的广泛担忧。
尽管专家们普遍认可健康AI的潜在价值,但也一致强调评估的重要性。斯坦福大学的MedHELM框架试图弥补评估体系的不足,涵盖121项临床任务和35个基准,对AI在各类医疗场景中的表现进行全面测试,但该框架仅能评估AI的单次回复,无法适配用户与AI多轮对话的真实场景。
项目负责人尼加姆·沙阿坦言,他们正着手开发更全面的评估体系,但需要大量的时间和资金投入,而在此之前,企业推出产品的脚步并不会停止,这种“先推出、后评估”的模式,本身就潜藏着风险。
在AI健康工具的浪潮中,并非所有参与者都急于求成,麻省总医院布莱根医疗系统的实践,为行业提供了一份理性范本。该医疗系统的首席医疗信息官丽贝卡·米舒里斯表示,决定采用哪些AI工具,核心不在于技术炒作,而在于实际证据和真实影响,他们对AI始终保持“谨慎乐观”的态度——既看到其变革潜力,也绝不忽视安全风险。这种谨慎,体现在AI工具的全流程管理中,也为行业树立了标杆。
麻省总医院的AI部署,始终围绕“安全、实用”的核心展开。他们首先建立了安全的内部访问机制,让临床医生和研究人员能在保护患者隐私的前提下,利用受保护的健康信息开展AI实验,比如开发AI代理,在患者就诊前为医生汇总数十年的医疗记录,提升诊疗效率。同时,医院投入巨资开展员工AI培训,帮助医护人员了解AI的功能与局限性,掌握安全使用方法,确保AI能真正融入诊疗流程,而非成为“额外负担”。
更重要的是,他们建立了多层监控体系:实时监控患者护理过程,及时发现AI的“幻觉”问题;短期回顾性监控,大规模审查AI输出,识别潜在风险;持续性能监控,确保AI工具能长期达到预期目标。
这种谨慎实践,也为健康AI工具的落地提供了重要启示:AI无需追求“完美”,但必须“可控”。米舒里斯强调,评判AI工具的标准,不应是“零错误”,而是其在现实世界中的表现是否优于现有工作流程,是否能切实改善患者护理或减轻医护人员负担。

图自unsplash
加州的一项研究显示,人类医生在撰写出院总结时,与AI产生的幻觉程度相当,因此关键不在于AI是否会犯错,而在于如何规避严重错误,让AI成为医护人员的辅助,而非替代者。微软在推出Copilot Health时,也采取了相对审慎的策略,先在美国分阶段推出,要求用户通过身份验证获取健康记录,明确标注信息来源,还计划后续收费,这些举措都在试图平衡便捷性与安全性。
专家们普遍认为,健康AI工具的价值,在于为医疗资源有限的人群提供“兜底”服务——对于那些难以获得医疗服务的人来说,一个随时可用、偶尔出错但错误不严重的AI,或许比完全无法获得健康建议要好得多。
但这并不意味着我们可以放松对AI的要求,相反,更需要建立完善的评估体系、明确的责任边界,让企业承担起安全测试的责任,让第三方专家参与到评估中来,让AI在可控的范围内发挥价值。OpenAI的健康业务负责人卡兰·辛格尔就表示,他们强烈支持外部评估,推出HealthBench也是为了给行业提供一个优质评估范例,只是高质量评估的高成本,也让这一过程充满挑战。
当AI健康工具越来越多地走进我们的生活,我们既不必盲目追捧,也无需全盘否定。它们是技术发展的必然产物,承载着人们对便捷医疗的期待,也潜藏着未被验证的风险。我们期待AI能真正填补医疗资源的缺口,为更多人提供可及的健康服务,但这份期待,必须建立在充分的测试、严格的评估和明确的责任之上。健康从来不是一场速度竞赛,而是一场安全长跑。
或许,我们真正需要思考的不是“AI健康工具该不该存在”,而是“如何让AI健康工具真正服务于人类健康”。在健康面前,有效和安全,永远比便捷和快速更重要。而那些正在路上的AI健康工具,唯有跨过“评估”这道关,才能真正成为人类健康的助力,而非隐患。
https://www.optometryadvisor.com/news/microsoft-unveils-ai-health-tool-that-can-read-medical-records/
https://www.technologyreview.com/2026/03/30/1134795/there-are-more-ai-health-tools-than-ever-but-how-well-do-they-work/
https://medcitynews.com/2026/03/mass-general-brigham-ai/
【本文中包含的图片均来源于网络,仅用于信息传播和新闻报道目的。我们尊重并保护所有版权拥有者的权利。若有任何版权问题,或版权拥有者不希望图片被使用,请与我们联系,我们将在收到通知后立即处理并删除相关图片。】