构建全周期治理体系规范AI医疗落地
健康报 2026-04-21 13:49:01
2025年11月,国家卫生健康委等5部门联合发布《关于促进和规范“人工智能﹢医疗卫生”应用发展的实施意见》,推动我国人工智能(AI)医疗进入政策驱动的快速发展期。随着AI技术在医疗领域的深度嵌入,其持续学习、迭代更新的自主演化特性与传统医疗器械的静态监管模式形成冲突,一系列行业痛点日益凸显:AI产品准入缺乏统一的多学科评估标准,部分产品存在“算法水土不服”现象;临床应用中“人机协同”边界模糊,甚至出现医师过度依赖AI的情况;患者隐私保护、算法可解释性不足等问题引发伦理与法律争议。
日前,由北京卫生法学会大数据与互联网人工智能医疗专委会、中国生物医学工程学会医学人工智能分会联合牵头,国内40余家医疗卫生机构、科研机构共同制定的《医疗机构人工智能应用与治理专家共识(2026版)》在京发布。《共识》集合医疗、医院管理、医学信息、卫生政策、法学、医学伦理等多领域专家智慧,结合国内外最新法律法规及医疗机构实践经验,聚焦准入评估、临床应用、患者权益保障、数据治理、风险管理、素养提升六大核心维度,构建了医疗机构AI应用全周期治理体系,旨在确保技术演进始终处于安全可控的法律与伦理框架之内。
关于准入审查,《共识》打破单一维度评估模式,建立“分类管理、分级准入﹢多学科联合审查”的双重机制。根据处理数据类型、用途及临床决策影响程度,将AI产品划分为低、中、高三个风险等级:低风险AI应用聚焦流程辅助与信息服务,如智能导诊、科研数据清洗等,实行简化备案流程,但需通过数据安全、系统稳定性及伦理合规性三重审查;中风险AI产品作为非辅助决策类医疗器械,如进行成像质量改善、自动测量等,需经过严格的临床适用性评估;高风险AI产品聚焦辅助诊断、手术导航等核心诊疗环节,深度干预临床决策,需接受全方位技术有效性验证与伦理风险研判。同时,《共识》要求医疗机构建立由临床专家、信息中心人员、法律顾问及伦理委员会代表组成的联合评估组,实行“一票否决制”,对存在数据安全漏洞、算法不可解释的产品一律不予准入,并每半年开展动态复评,确保准入审查全程可追溯。
关于临床应用,《共识》坚守“人机协同,以人为主”的核心原则,明确AI的法律属性始终是“辅助诊疗工具”,医师拥有诊疗决策权,医疗机构承担诊疗行为的法律责任。针对临床实践中存在的AI使用不规范问题,《共识》提出三大要求:医师不得将AI输出结果直接作为诊断结论,AI生成内容需经医师确认后方可进入病历系统;强化医务人员的复核义务,对AI提示的高风险预警必须复核,高风险环节可设置双人复核机制,对AI判断的修改或否决情况需全程日志记录;严守拟人化服务红线,AI交互界面需显著标明“AI生成”,限制拟人化AI在精神科服务、未成年人等群体中的介入深度,建立透明披露机制与紧急人工转接通道,防止患者产生情感依赖。
关于风险管理方面,《共识》提出,医疗机构需建立全生命周期监测与责任兜底机制,筑牢AI医疗安全防线。一是将“AI相关不良事件”纳入医疗机构医疗安全报告系统,凡是发现AI出现逻辑谬误、幻觉或导致诊疗流程中断的,无论是否造成实际伤害,均需及时上报,并由多学科专家开展根本原因分析,采取补救措施。二是建立AI系统熔断机制,当系统出现连续严重错误、大规模算法漂移、数据泄露等情况时,需立即停用AI,切换至人工诊疗流程,排除故障后经全面检测方可重新投入使用。三是明确责任分担机制,医疗机构在采购合同中需与厂商明确追偿权,若医疗损害由AI产品设计缺陷导致,医疗机构在承担赔偿责任后可向厂商全额追偿。
患者权益保障是AI医疗治理的核心落脚点。《共识》提出,构建“分级知情同意﹢算法可解释”的双重保障体系。根据AI风险等级,实行差异化知情同意模式。针对算法“黑箱”问题,《共识》要求医疗机构在患者对诊疗结果提出异议时,不能以“系统计算”为由推脱,需要求供应商提供算法决策的热力图等可视化依据,并转化为通俗易懂的语言向患者解释,确保解释过程可追溯、可验证。
数据安全与隐私保护是AI医疗健康发展的底线。《共识》明确提出“数据不出院”核心原则,要求医疗机构建立本地化部署或私有云环境。涉及科研合作数据外发,需经过伦理审查与数据出境安全评估;确需云端运算的数据,必须在院内完成标准化脱敏处理,同时严禁医务人员私自将患者原始数据输入公开生成式AI平台。
医学的本质从来不只是技术,更是关怀、共情、温度与人性。医疗机构广泛应用人工智能,核心是把医师从重复劳动中解放出来,让其有更多时间开展以人为本的情感沟通与交流。《共识》建议,所有AI辅助诊疗场景必须保留医患直接沟通的物理空间与时间刚性保障,严禁以“智能导诊”“语音录入”等名义削减面对面问诊时长;电子病历系统可嵌入“人文关怀提示模块”,在AI生成建议后自动弹出“请确认是否已倾听患者叙事、评估其心理社会需求”的交互提醒等。
责任编辑:刘道勋
