用AI生成处方看病?现在还是太早了
栏目:1xbet体育 发布时间:2025-03-30
 据中央广播电视总台中国之声《新闻纵横》报道,近期,各地多家医院纷纷开始引入国产AI大模型DeepSeek,并通过本地化部署将其应用于临床、科研和行政管理等多个场景。  但与此同时,近日湖南省医疗保障局印发《关于进一步加强基本医疗保障定点零售药店管理的通知》,对定点药店的医保处方管理等多项内容提出明确要求,话题“湖南严禁使用AI自动生成处方”随之冲上热搜。  2025年算得上是AI应用的元年。人

  据中央广播电视总台中国之声《新闻纵横》报道,近期,各地多家医院纷纷开始引入国产AI大模型DeepSeek,并通过本地化部署将其应用于临床、科研和行政管理等多个场景。

  但与此同时,近日湖南省医疗保障局印发《关于进一步加强基本医疗保障定点零售药店管理的通知》,对定点药店的医保处方管理等多项内容提出明确要求,话题“湖南严禁使用AI自动生成处方”随之冲上热搜。

  2025年算得上是AI应用的元年。人工智能终于走出了极客与象牙塔的圈层,成为全民可用、全民想用的工作生活助手。

  但“AI做PPT”“AI画图”这些帮助人类完成总结和展示的工作应用AI固然没有太大问题,“AI for Science”助力也能大幅提升科研效率。在医疗领域,探索也早已经开始。

  从目前的人工智能能力来看,此前哈佛大学、斯坦福大学、微软等顶尖学府和机构的多名医学、AI专家日前联合开展了一项研究,对OpenAI旗下o1-preview模型在医学推理任务的表现进行了综合评估。

  结果显示,o1-preview模型诊断准确率高达近80%,在鉴别诊断生成(判断“这是什么病”)、诊断临床推理(判断“这最可能是什么病”)和管理推理(判断“应该如何治疗”)方面,甚至达到了超人类水平。

  但我们真的就此实现AI看病的乌托邦吗?现实恐怕没有那么简单。对于医疗领域来说,重要的不是那80%,而是那剩下的20%不准确率。

  在生命的健康安全面前,20%的错误率已经非常之高。而且,真要到了责任更为重大的医疗领域,情况则要复杂得多。

  面对一些简单的疾病,AI处方能够最大程度把医生从低效能的重复劳动中解放出来,让他们的专业价值发挥在更重要的地方。我们当然也非常期待人工智能能够减轻医生的负担。

  据新京报报道,2025年2月26日,北京大学第三医院的心内科诊室里,两种治疗方案在诊台上对峙:左侧是心内科大夫汪京嘉开出的一份用于治疗高血脂的医嘱,右侧是人工智能软件生成的处方。

  病人与医生发生了争执。老人从AI上得到的建议是,注射类药物短期耐受性良好,而且仅需隔周注射一次,比每日服用药物方便许多。但在汪京嘉看来,对于老年高血脂高血压的病人,一切以维稳为主,他汀类口服药物已有超过30年的临床应用历史,副作用发生率低,符合循证医学的“最小有效干预”原则,可避免过度医疗。

  这场争执以病人的沉默结束。但很显然,这样的事件未来必然会越来越多,而医生在诊断之外的说服成本,也可能还会因此而继续上升。

  长期以来的医患沟通都与患者本人的医疗知识和认知能力直接关联。但现在,AI的加入可能会进一步增加医生的说服难度和患者在配合治疗时的依从度。而在这背后更为重要的是,患者与医生看似是在争论治疗方案,实际却是人机认知维度在医疗决策中的激烈碰撞。

  信息处理的模式差异构成第一道认知断层。比如在新京报的这起报道中,患者将AI建议简化为“注射更方便”的单一维度判断,其决策模型遵循的是普通人的日常逻辑——“便捷性”替代“有效性”成为核心指标。这对于患者来说的吸引力是极大的。当AI用“隔周注射”的短期优势攻破患者心理防线时,1xbet体育注册恰恰暴露出其算法训练中缺失的“时间维度”认知。

  但医生在三十年的临床经验中构建起的是多维决策矩阵:药物相互作用风险、肝肾代谢负担、长期依从性数据等参数在脑海中瞬时运算,最终收敛于“最小有效干预”的循证医学最优解。这种专业认知与患者朴素的“生活便利”诉求之间,存在着难以通约的评估体系。

  此外,技术信任的不对称投射将认知鸿沟推向更深层。患者对AI的信赖源自对“智能”的神话化想象,将算法输出等同于医学权威。

  这种技术崇拜最大的问题,是忽视了医疗决策中“人”的因素:医生对特定患者的病史掌握、对药物个体反应的预判、对治疗方案动态调整的能力,构成医疗AI难以复制的隐性知识层,这些都是AI难以替代的决策机制。而如果算法只是将复杂决策简化为概率游戏,那么恰恰可能放大医疗不确定性中的潜在风险。

  回到技术本身来看,在医患关系、治疗方案的复杂冲突面前,AI技术本身潜藏的风险更像是看不见的冰山。叠加认知风险的影响,可能还会产生更加难以预计的后果。

  随着从企业到机构乃至是医院等各类主体选择接入DeepSeek,近期一个越来越明显的问题就是AI幻觉正在困扰着很多人。

  在To C方向上,已经有越来越多人开始发现大模型给出答案中存在的偏差。看似无所不能的智能助手,经常会像模像样地“编故事”。当用户查询历史细节时,AI可能会将不同朝代的典章制度混杂交错;求医者收到的诊疗方案中,藏着多年前已被世卫组织废止的药剂配比……在知识边界外,算法用看似完美的逻辑链条编织着答案。

  事实上早在2023年,美国就已经发生过一起乌龙案件。2023年2月,美国纽约南区联邦地区法院的“马塔诉阿维安卡公司案”(Mata v. Avianca,Inc.)中,两名律师及其律所提交了一份反对动议的声明,该声明引用并摘录了据称发表在《联邦判例汇编》《联邦补充判例汇编》中的司法判决;然而滑稽的是,这些声明中引用的判例并非真实存在,而是由ChatGPT生成的。

  在被告律师指出案例无法找到后,原告律师未能核实判例的真实性,并在法院要求提供完整案例文本后,仍然提交了由ChatGPT生成的“判例”,法官认为原告律师的行为违反了执业道德准则,浪费了司法资源,并被处以5000美元的罚款。

  今天,DeepSeek的混合专家模型 (MoE)在降低成本的同时,却带来了相比ChatGPT更高的幻觉率。而且以现在的人工智能幻觉程度来看,如果不是相关领域的专业人士,在信誓旦旦的AI面前,已经大概率无法分辨它到底是不是在说谎。

  在医疗AI的落地过程中,“AI幻觉”(AI Hallucination)更会是悬在技术应用上方的达摩克利斯之剑。

  AI在医疗上的使用涉及生命安全健康等重大问题。据报道,在实际应用中,由于系统内部机制以及外部环境中的各种干扰因素,医疗人工智能系统可能会遭遇混乱状态,进而引发一系列潜在风险。

  而且,医疗数据存在天然的分布不均衡性。罕见病样本的缺失导致AI在遭遇非常规病例时,更倾向于输出基于常见病的“合理推测”,这种推测在概率上可能正确,但在具体个案中却是致命错误。再比如,医疗知识体系的更新速度(如新冠变异株的临床特征演变)远超AI模型的迭代周期。

  而在医疗领域幻觉问题概率可能会更高的原因是,当前大模型基于的是“统计相关性”的算法机制,而医疗领域要求的是“因果严谨性”。换句话说,技术鸿沟中存在的难以调和的深层矛盾在于:医疗AI事实上追求的是“绝对正确性”,而现有技术架构只能提供“统计最优解”。

  要跨越这道鸿沟,需要构建融合因果推断的混合架构,建立动态知识更新机制,更需建立“人机协同”的容错体系。这也意味着,当AI给出存在争议的结论时,必须由人类专家介入验证。

  在认知和技术的风险之外,法律和伦理的挑战显得更为迫切,解决起来的难度系数也更高。

  现在我们面临一系列问题的底层,其实不是AI到底能不能看病,而是AI的权利和责任到底是什么。如果我们认为AI具有开具处方的决策权,那也就意味着,机器正在突破“辅助工具”的定位,向“自动化决策”演进。

  现行《医疗事故处理条例》将责任主体限定为“医疗机构及其医务人员”,而AI在诊疗中的角色定位(工具/合作者/独立决策体)缺乏法律界定。当AI为病人开具处方,是传统医疗器械管理条例适用,还是需要建立新的“电子医生”执业标准?这些问题看似细节,却往往牵一发而动全身。

  从法律层面看,1xbet体育注册由于AI不是独立的医疗行为主体,没有处方权,也无法承担法律责任。一旦AI开出的处方误诊误治,导致医疗事故,责任认定成为难题。因此从当下来说,共识还是清晰的。即便完全赞同AI具有开具处方权利的人也不会反对,需要进一步厘清AI的权利范围。

  因此,目前来看最理想的方案还是:AI依然只是辅助医生决策的工具,而不是AI取代医生。本质上,AI应当被视为和CT、血液检测等等此类医疗检测工具一样的存在,其存在的最大价值在于降低人的决策难度和成本。

  当然,这就需要有一系列的配套机制和制度跟上。欧盟《人工智能法案》提出的“高风险AI系统”强制认证或许提供方向,但其要求的“技术可审计性”在深度学习时代几乎无法实现。

  但这也并不意味着无解。比如在立法层面是否可以考虑建立分级责任制度,建立一个对影像诊断等辅助类AI适用“产品责任”,对治疗规划等决策类AI引入“电子医生”诊断已经背后AI责任公司的权责划分机制。

  在技术治理层面,也可以借鉴区块链的可信结构,部署“可解释性模块”,乃至是建立决策日志的区块链存证机制,为法律追溯提供技术基础。

  在市场创新上,也可以考虑开发“AI医疗责任险”新险种,通过精算模型量化不同场景下的风险系数,建立风险共担机制。

  如果我们认为AI拥有处方权是一件长期来看利大于弊的选择,那么这些都是未来有待跟随技术进步而匹配的社会风险共担机制。

  但回到现阶段来看,认知、技术乃至法律和伦理上的一系列复杂挑战,共同意味着“AI看病”这件事情真正落地还有很长一段路要走,在现阶段奢谈AI是否具有处方权还为时过早。而它需要的是更多方的参与者来共同推动一个合理化机制的建立:人工智能技术公司需要更深入地理解行业的Know-how,而了解人工智能的能力边界同样也是对于医生和患者的共同挑战。