构建安全智能医疗生态须直面四个问题

健康报    2026-03-17 10:18:26

人工智能(AI)大模型正加速融入医疗健康生态,但其背后的法律责任、伦理边界与风险分担问题仍缺乏明晰框架。如何让AI在守住安全与伦理底线的前提下健康发展?笔者认为,要明确AI辅助诊疗责任,构建一个安全、可信赖的智能医疗生态,必须直面以下4个问题。

破解“黑箱”确保决策过程可追溯

AI大模型在提供辅助诊疗时,其判断逻辑存在难以解释的“黑箱”特征。这一问题是法律责任认定的首要障碍。

对此,AI辅助诊疗需以“透明与可追溯”为前提。AI服务开发方应严格遵照相关规范,将可解释性框架和模型卡嵌入产品交付流程,使医务人员能够理解AI判断的临床关键依据。医院应要求AI服务开发方提供或自主建设辅助决策日志系统,记录AI调用的时间、输入数据、诊断结果及其置信度分数。这份档案不仅是未来责任追溯的司法证据,也是医院进行质量控制和持续性能监控的生命线。

同时,双方在采购合同中应谈妥透明度条款和审计权条款,拒绝以商业机密为由的过度封锁,并允许专业的伦理委员会和技术审计团队对算法的临床安全性和持续有效性进行定期审查。

界定医疗智能决策的责任归属

当前,AI在医疗体系中多以辅助角色存在,法律上缺乏人格主体,造成了法律上的“主体真空”。当医生过度依赖AI建议导致漏诊或误诊时,如何界定侵权法上的因果关系和近因,是法律实践中的最大难点。

借鉴我国现行医疗损害责任体系,责任可划分为医疗机构与医务人员的过错责任,以及AI服务开发方的无过错产品责任。医院需制定严格的临床使用规范,明确医务人员对AI的建议负有最终的审慎验证和判断义务;若医疗责任是医务人员未尽到合理注意义务或对算法盲目信任所致,则由医疗机构和医务人员承担过错责任。若能证明损害源于系统程序缺陷、算法设计瑕疵,或系统性数据偏差、对抗性攻击等新型算法缺陷,则由AI服务开发方承担无过错产品责任。

在司法实践中,应引入具备算法审计能力的技术专家证人。通过技术审计,推动算法缺陷的举证责任适度转移,将证明算法缺陷的责任适度转移给AI服务开发方,以减轻患者的举证负担。在保护患者权益的同时,促进AI技术的稳健应用。

建立维护患者权益的风险分担机制

在AI深度赋能医疗的背景下,数据是核心要素,数据安全、隐私保护需要提升至核心制度保障层面。

首先,必须完善患者知情同意与数据授权机制。医院应在“知情同意书”中增设AI辅助诊疗条款,明确AI辅助决策的方式、依据及不确定性。在数据使用方面,应优先采用数据不出本地、模型协同训练的联邦学习方法,以及对个人信息进行技术性模糊处理的差分隐私方法等隐私保护技术,从技术层面保障数据安全。患者有权选择是否接受算法建议,这体现了医疗服务中的共同决策理念。

其次,应积极探索“AI辅助诊疗责任保险”制度,推动医疗责任险与科技产品责任险协同,形成AI辅助诊疗综合责任险。有关部门应指导保险机构开发相应产品,并要求高风险AI产品的开发者购买足额的保险,从而有效分散赔偿风险、提高理赔效率,为AI辅助诊疗建立风险缓冲机制。

增强医疗智能决策的可持续性

当前,传统监管模式无法有效追踪AI产品上市后的性能漂移和安全风险。同时,跨部门监管协同困难以及人才能力的滞后,都是制约AI辅助诊疗可持续发展的关键因素。

促使监管适配技术发展,必须构建“全生命周期”监管体系:

一是推行AI风险分级管理。借鉴国际经验,基于临床影响和风险程度,将AI应用划分为低风险、一般风险、高风险等级,并采取差异化的监管策略。对于直接参与诊疗辅助决策的高风险AI,应限制在具备高监管能力和伦理审查机制的机构内进行探索。

二是建立基于机器学习运维规范的持续监管框架。监管机构要严把AI产品上市审批关,建立上市后的主动监测、性能追踪和定期再评价制度,要求AI服务开发方和医疗机构建立符合机器学习运维规范的系统,实现对AI产品性能漂移和异常的自动化监测和报告,从技术底层实现全链条监管。

三是加强多主体协同和规范指导。监管机构应加速制定统一的落地标准和细化监管规则。同时,建立由卫生健康行政部门主导的伦理与技术鉴定机构,为复杂的AI辅助诊疗纠纷提供专业、权威的裁决依据。

四是推行人才培养与伦理教育。帮助医生、医院管理者和法律人员了解AI原理和应用场景,加强伦理教育,防止过度依赖。

责任编辑:刘道勋