index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
斯坦福大学的研究表明,当人工智能(AI)从医疗工具转变为医生的协作队友时,诊断准确率显著提升。研究人员设计了AI-first和AI-second两种协作模式,让医生与AI共同分析病例。结果显示,与传统诊断方法相比,AI协作模式使诊断准确率提高了6.8%到9.8%。研究还发现,AI的协作模式能帮助医生更全面地考虑病例信息,避免遗漏,并促进更深入的临床推理。这项研究突出了AI在医疗领域的巨大潜力,以及协作模式的重要性。
💡研究的核心在于将AI定位为医生的协作伙伴,而非单纯的工具。通过两种协作模式(AI-first和AI-second),AI与医生共同分析病例,共同诊断。
📈研究结果显示,AI协作显著提高了诊断准确率。AI-first组和AI-second组的诊断准确率分别比对照组高出9.8%和6.8%。这表明AI能够有效提升医生诊断的质量。
🧐AI协作的优势在于它能够弥补人类思维的局限。AI能够快速扫描大量数据,避免遗漏关键信息,并挑战医生的先入为主的经验。AI的批判性思维和透明化的决策过程增强了医生对AI的信任。
⚠️研究也揭示了AI协作中的挑战。当医生先入为主时,AI的分析可能受到影响,降低协作价值。因此,保持AI的独立思考空间至关重要。
新智元 2025-06-15 13:31 北京

编辑:英智
【新智元导读】AI从医疗工具变身为协作队友,斯坦福大学研究揭示:医生诊断准确率竟飙升10%!70名美国执业医生参与的真实测试,AI-first、AI-second与传统诊断,谁能更精准破解临床谜题?
你敢让AI帮你看病吗?斯坦福大学的一群医生和工程师,最近做了一项研究:让AI和人类医生组队,共同破解复杂的诊断难题。
论文链接:https://www.medrxiv.org/content/10.1101/2025.06.07.25329176v1.full.pdf结果让人惊讶:当AI从「工具」变成「队友」,医生的诊断准确率直接飙升了10%。网友惊叹:颠覆的临界点即将到来!
「充满热情的医生加上AI将势不可挡。」
「AI驱动的临床决策支持,仍然是该领域最有力的杠杆之一。」
还有人表示,「对于一个背负数十万美元债务的医生来说,这种发现有点令人害怕。这还只是用GPT 4,无法想象o3会有多厉害。」
AI当医生,抢饭碗还是递扳手?过去几年,AI在医疗领域的存在感越来越强,从影像识别到药物研发。但医生把它当搜索工具,用来查指南、找文献,却不敢真正把它当作「搭档」。为什么会这样?斯坦福的研究团队发现,关键问题出在交互模式上。早期的AI就像个沉默的助手,医生输入问题,它输出答案。这导致医生很难信任AI的判断,甚至出现过「医生用AI辅助诊断,结果反而比AI单独诊断更差」的情况。于是,他们决定做一个颠覆性实验:把AI变成会讨论的队友。
实验设计很巧妙:让医生和AI各自先独立分析病例,然后AI生成一份联合报告,不仅列出双方的共识和分歧,还会像资深医生一样点评每个诊断的合理性。比如,当医生考虑真性红细胞增多症,AI会补充低EPO水平支持这一诊断,但需排除罕见的EPO分泌肿瘤。当医生漏掉淋巴瘤的可能性,AI会提醒瘙痒和尿酸升高可能是这个方向。
团队基于GPT-4开发了一款定制化的AI系统,设计了两种协作工作流程,分别测试AI-first和AI-second时的效果。70名美国执业的内科或家庭科医生参与了这项试验,他们被随机分配到以下三种组别之一:AI-first组:医生首先输入病例信息,查看AI生成的诊断建议(包括五个可能的诊断和七个后续步骤),然后结合自己的判断形成最终诊断。AI-second组:医生先独立完成诊断(可以使用传统资源如UpToDate、PubMed等),再将病例和自己的初步诊断输入AI系统,AI会生成独立分析并与医生的诊断进行整合,生成一份综合报告。对照组:医生仅使用传统资源完成诊断,不与AI互动。实验使用了六个基于真实患者的临床病例,涵盖了复杂诊断场景。每个病例包含病史、体检和实验室检查结果,医生需要提供三个可能的诊断、支持和反对的证据、最终诊断及三个后续步骤。研究通过19分制的评分系统评估诊断的准确性,评分由两位内科认证医生独立完成,且评分者不知道答案来自医生还是AI,以确保公平。AI系统的核心设计在于协作。它不仅生成自己的诊断,还会对比医生和AI的判断,生成一份综合报告,清晰列出双方提出的诊断、共识点、分歧点,并对每个诊断提供评论。这种设计旨在激发医生的批判性思考,而非简单依赖AI的输出。研究结果:AI显著提升诊断准确性研究结果令人振奋,AI协作组的医生表现明显优于仅使用传统工具的对照组。诊断准确性:对照组(传统工具):平均得分75%。AI-first组:平均得分85%,比对照组高9.8%(p<0.0004)。AI-second组:平均得分82%,比对照组高6.8%(p<0.00001)。AI单独运行:平均得分90%,略高于协作组但差异不显著。
医生和AI协作后,虽然没超过AI单独水平,却比医生单打独斗强。这说明,AI能补全人类思维的漏洞。在最终诊断和后续步骤(即临床上可操作的决策)方面,AI-first比AI-second组表现更好(高8.9%,p=0.026)。AI-second相较于对照组在这些决策上的得分提升了14.9%(p=0.00092),其中36%的病例在与AI互动后有所提高。
AI-first完成每个病例的平均时间为631秒,略快于AI-second的688秒。在剔除未严格遵循流程的病例后,AI-first的优势更明显。所有医生在试验后对AI的态度显著改善,98.6%表示愿意在复杂临床推理中使用AI(试验前为91.4%,p=0.011)。为什么AI当队友更厉害?信息过载与遗漏:临床诊断就像拼拼图,每个病例可能包含几十条线索。医生很容易漏掉某个实验室指标(比如「血清LDH升高」提示细胞破坏),但AI能瞬间扫描所有数据,精准关联高LDH+巨幼细胞贫血可能指向骨髓增生异常综合征。经验依赖的陷阱:资深医生容易被典型病例固化思维。比如看到老年女性、乏力、舌炎,可能优先考虑缺铁性贫血,但AI会跳出经验框架,提出维生素B12缺乏或甲状腺功能减退的可能性。决策链的逻辑性:AI的诊断报告就像思维流程图:先列出3个最可能的诊断,再用支持证据和反对证据逐条论证,最后给出3个下一步检查建议。AI的「人性化改造」为了让AI更懂医生,研究团队给它加了三个补丁。1. 会「吵架」的批判性思维:当医生的诊断和AI不一致时,AI不会直接服从,而是会说:「您提到的原发性胆汁性胆管炎可能性较低,因为患者缺乏胆汁淤积的证据,但需要注意罕见变异型。」这种挑战不是对抗,而是逼医生重新审视自己的逻辑漏洞。2. 能「翻译」的沟通能力:传统AI输出的是学术化的语言,但实验中的AI会用口语化表达:「目前看,真性红细胞增多症是最可能的,但淋巴瘤不能完全排除,建议先查血清EPO水平和骨髓活检。」这种说人话的能力,让医生更容易理解和接受。3. 可「追溯」的透明化决策:每个诊断结论,AI都会标注证据来源,比如「支持淋巴瘤的证据是瘙痒和尿酸升高(引用文献X),反对证据是缺乏淋巴结肿大(引用指南Y)。」这解决了医生对AI黑箱决策的不信任感,让协作建立在可验证的基础上。AI的「锚定效应」研究发现,AI-second组中,AI的独立分析有时会受到医生初步诊断的影响。实验中有个有趣的细节:AI-second组中,48%的病例中AI的诊断和医生初始意见完全重叠,而AI-first组仅为3%。说明如果医生先入为主给出思路,AI可能会「迎合」人类判断,未能完全遵循独立分析的指令。
比如,有个病例中医生误判缺铁性贫血,AI在后续分析中居然也把这个诊断放在了第一位。尽管按照数据,维生素B12缺乏才是更合理的方向。这意味着,AI的批判性依赖于独立思考的空间,一旦被人类思维锚定,反而会降低协作价值。但反过来,当AI先发言时,医生会更主动地挑战它的结论。有位住院医师在看到AI提出骨髓瘤时,立刻反驳:患者没有骨痛和蛋白尿,这个诊断可能性太低,并最终通过追问病史排除了这一方向。这种「对抗性协作」,反而激发了更深入的临床推理。参考资料:
https://x.com/emollick/status/1931907652118069510
https://www.medrxiv.org/content/10.1101/2025.06.07.25329176v1



















阅读原文
跳转微信打开