科技日报记者 张佳星
近日,湖南省医保局发布的通知中提到的“严禁使用人工智能等自动生成处方”引发热议,人工智能“幻觉”也被自媒体轮番报道,AI医疗似乎“不太靠谱”。
同时,人工智能辅助医生诊疗时能够引用出最新指南、标注多篇参考文献中的关键内容,正成为越来越被倚重的“全知型”帮手。
那么,人工智能参与照护百姓健康,到底如何划定效率与责任的边界?医疗领域在对人工智能高效便利等优点善加利用的同时,怎样才能避开风险?
为什么严禁人工智能自动生成处方
“目前人工智能在临床诊疗中,比较被接受的作用是临床决策支持和辅助。”广东医科大学多模态数据融合应用实验室(GMCLab)主任弓孟春告诉科技日报记者,医嘱开立作为诊疗行为的关键步骤,目前的确不允许也不应该由人工智能直接进行处方开立。
上海市眼病防治中心主任医师朱剑锋也向科技日报记者表示,线上问诊可以用AI来辅助,但诊断和开具处方是不允许的。
2021年,国家卫生健康委发布的《公立医院高质量发展促进行动(2021-2025年)》中也明确,鼓励有条件的公立医院加快应用智能可穿戴设备、人工智能辅助诊断和治疗系统等智慧服务软硬件,提高医疗服务的智慧化、个性化水平。
“对于人工智能的核心约束是,它不能替代医生直接进行诊疗决策。”弓孟春解释,通俗地说,AI是提建议的,医生是做决策的,听不听由医生决定。人工智能软件目前能提供用药禁忌、剂量换算、注意事项提醒等辅助功能。
“使用人工智能自动处方的情况,一般不会发生在实体医院内。”弓孟春解释,实体医院的诊疗流程有着严格的质控和监管,不太可能出现机器替代人开医嘱的情况。互联网医院等医疗主体的诊疗环节在院外,较难监管。
查阅湖南省医保局发布的《关于进一步加强基本医疗保障定点零售药店管理的通知》文件可以发现,“严禁使用人工智能等自动生成处方”的提法在“规范互联网医保定点医院处方行为”的条款中,条款同时要求互联网医院要与患者或患者家属进行有效、充分的沟通问诊。
对于互联网诊疗,国家卫生健康委在2022年发布的《互联网诊疗监管细则(试行)》中对接诊、开方流程均进行了明确规定:其他人员、人工智能软件等不得冒用、替代医师本人提供诊疗服务;处方应由接诊医师本人开具,严禁使用人工智能等自动生成处方。
人工智能的“幻觉”是避不开的BUG吗?
有观点认为,由于人工智能“幻觉”是天生的,会杜撰药品名称、治疗方法等,其用于医疗可能“闯下大祸”,加之Open AI之前在美国应用时也出现过“幻觉”问题,更令人忐忑。
那么,能不能消除大模型自主产生的、看似逻辑严密却又毫无依据的“幻觉”呢?医疗和人工智能领域在联合研发过程中,从未回避这一问题。
不久前,北京协和医院与中国科学院自动化研究所共同研发的“协和·太初”罕见病人工智能(AI)大模型正式进入临床应用阶段。科研团队将能有效抑制人工智能“幻觉”作为其三大核心优势之一。相关报道显示,传统的人工智能模型常因数据噪声或知识盲区产生“幻觉”,易导致错误推断。“协和·太初”通过整合权威数据、动态更新知识、增加溯源机制等方式,有效抑制模型出现“幻觉”,增强了临床决策可信度。
“抑制‘幻觉’,目前主要通过本地化的高质量数据集(如真实的诊疗记录等)和大量经人工验证的知识库(如临床诊疗指南、教材及公开可及的科学文献等)进行模型微调。”弓孟春解释,通过提示词工程等技术在推理过程中施加有效的证据佐证、溯源核查、判据验证等,并不断反馈与修正。可以理解为,让AI只学“好知识”,并限制推理“边界”,也可增加“溯源”机制,在临床应用前不断修正“教育”。
相关专业机构发布的DeepSeek在国内三甲医院部署的统计显示,包括复旦大学附属华山医院、瑞金医院、深圳市人民医院等在内的多个医院开启了与国内顶尖人工智能企业的联合研发,通过跨领域的融合和对接,加速推进医疗智能化,解决“卡脖子”问题。业内认为,利用DeepSeek独特的“分层次知识蒸馏”技术,可使医疗复杂场景中的推理计算量降低30%。
“国内外大量基于多模态临床数据进行的研究证实,人工智能技术所提供的临床洞察意见可能会超越医生所能掌握的知识极限和物理感觉极限,为临床决策提供重要的辅助意见。”弓孟春说,对于AI给出的新证据、新论断要持“审慎验证、充分研判”的态度,建设多模态临床数据基础设施,梳理高质量的队列,对各类数据驱动的医学新发现进行验证。以多学科诊疗(MDT)的形式将AI提供的临床证据融入诊疗环节为患者服务,是全球医疗科研领域的主流发展趋势之一。