网站首页 | 网站地图

每日推荐
首页 > 人民智库 > 正文

“AI﹢医疗”:守住安全 释放温度

今年全国两会期间,人工智能(AI)成为各界高度关注的热点议题。今年政府工作报告提出,深化拓展“人工智能﹢”,促进新一代智能终端和智能体加快推广,推动重点行业领域人工智能商业化规模化应用。AI将如何重塑医疗服务模式?群众如何更好运用“数字医生”?临床医生如何应对这场AI变革?“AI﹢医疗”该怎样在创新发展与安全合规之间找到平衡?带着这些问题,记者采访了多位代表委员。

“AI﹢医疗”应用不断上新

当前,AI正深刻重塑医疗健康生态,深度融入筛查、诊断、治疗、药物研发、健康管理、资源配置等各环节。许多医务工作者成为“AI﹢医疗”的推动者、倡导者,引领各类“AI﹢医疗”应用不断上新,在临床场景落地。

全国政协委员、四川大学华西医院呼吸和共病研究院院长李为民团队自主研发肺结节AI辅助诊断系统,该系统可对肺结节的位置、大小、恶性风险等进行快速精准的影像识别与辅助判断,检出准确率超98%。基层医院应用该系统后,肺结节检出与诊断水平显著提升,接近三级医院水平,同时诊断耗时缩短近一半。

全国政协委员、中国科学院院士、浙江大学医学院附属第二医院院长王建安带领团队探索AI分析血管造影的新型检查技术,助力医生更精准地判断患者是否需要植入支架。王建安介绍,在无创功能学评估指导下,相较于依靠造影判断血管狭窄程度大于70%即建议植入支架的方式,这一技术可减少9.2%的不必要支架植入,实现更科学、精准的诊疗。

全国人大代表、南京市第一医院副院长张俊杰则聚焦将顶尖心血管专家的临床经验转化为智能手术规划能力,借助AI实现手术风险预测与方案智能优化,助力高精尖技术向基层普及。“心脏不停跳瓣膜置换这样的微创技术,目前仍集中在少数顶级医院开展,专科医生的手术量有限,难以满足大量患者的需求。”张俊杰希望以AI赋能更多基层专科医生,助其掌握关键技术,从而惠及更多患者。

在全国人大代表、湖南中医药大学第一附属医院儿童医学中心主任张涤看来,AI与中医药的深度融合是大势所趋,其在中医药领域的应用前景广阔。“依托大数据平台整合中医经典文献和历代名医医案,让年轻医生可以更高效地学习经典理论和诊疗思路,并获得更精准的诊断支持和更完整的治疗方案。”张涤认为,这类AI系统具备学习和临床双重辅助功能,能有效提升基层中医药服务水平。

当前,我国“AI﹢医疗”应用不断涌现。全国政协委员、江苏省人民医院(南京医科大学第一附属医院、江苏省妇幼保健院)院长刘云认为,目前我国AI医疗产品总量大、种类多,但同质化严重、可推广性不强,多数产品难以真正落地基层。她建议,由国家层面建立完善AI医疗产品全链条评价准入体系,形成优胜劣汰良性生态;建立全国统一 AI应用场景库,引导资源聚焦临床核心痛点,如分级诊疗、慢病管理、基层服务等,重点扶持成熟度高、适配性强、性价比优的产品。同时,以县域医共体、城市医疗集团为载体,大力推广AI眼底筛查、肺结节早筛、智能心电诊断等普惠应用,推动产品轻量化改造适配基层设备与人员能力。

“数字医生”供参考,要注重数医协作

近段时间以来,越来越多患者开始借助“数字医生”进行健康咨询与初步诊疗。部分代表委员指出,这种模式确实有积极作用,但要提醒的是,“数字医生”无法替代医生,其要和真实医疗体系有效衔接,才能规避风险、发挥更大作用。

全国政协委员、中国心胸血管麻醉学会常务副会长敖虎山介绍,“数字医生”依托权威医学知识库和个性化健康信息打造,一方面能提供7×24小时健康咨询,缓解医疗薄弱地区居民和行动不便人士的就医难题,另一方面可以帮助医生精准分流非紧急医疗需求,减轻医疗机构门诊压力。但他也强调,AI目前尚处于初级阶段,只能将“数字医生”作为“参考书”,不能作为诊断依据。

张涤也指出,中医诊疗讲究望闻问切,舌苔、脉象、神态等都是辨证的必备信息。普通群众缺乏专业知识,描述症状时容易遗漏或误述。指令输入不准确,得出的结论就容易出现偏差,甚至产生误导。

“数字医生”规模化落地仍受多重制约。敖虎山说,一是服务边界与责任规则模糊,健康咨询与诊疗的界定、处方权归属等缺乏规范,引发合规争议;二是数据根基薄弱,健康信息分散、标准不一、共享不畅,隐私保护与数据利用的矛盾突出,难以支撑个性化服务;三是技术评测体系不健全,缺乏统一标准、测试数据集和第三方评测机构,企业创新成本高;四是监管分类规则不明,功能迭代的监管红线模糊,企业创新趋于保守。

“要通过顶层设计来促进‘数字医生’与传统医疗体系的规模化融合,在安全可靠的前提下,实现其在医疗健康领域的社会和经济价值。”敖虎山呼吁,未来应明确“数字医生”健康咨询与管理辅助工具定位,建立分级分类管理框架,明晰服务范围、责任划分与质控标准;推进全民健康信息平台互联互通,建设区域医疗云算力服务;明确“数字医生”临床应用边界,建立人机协同规范,落实医生最终决策责任,并在低风险场景试点,完善评估体系。

医生主导、AI赋能是发展方向

对于AI深度融入医疗领域,代表委员们普遍形成共识:医生应主动拥抱AI,否则将面临被时代淘汰的风险;但医疗始终由医生主导,AI只能作为提升医生诊疗能力的高级辅助工具。

针对“未来5年AI机器人或将替代外科医生”的观点,李为民表示,医生永远会存在,而且作用会越来越大。AI可提升外科手术的精准度与精细度,协助医生完成以往视野不清、难度较高的手术,但手术核心决策仍需由经验丰富的临床医生作出。

“过去,住院医生写病历耗时耗力;如今,借助AI语音识别与文字生成功能,可以自动生成病历,医生只需对关键信息进行修改。”张俊杰认为,AI应用恰恰有助于将医生交还给患者,使其全身心投入更具人文温度与专业判断的诊疗工作。

王建安也认为,AI有效助力医生提升专业智慧、提高服务可及性、增强临床思辨能力,但非常明确的是,推动“AI﹢医疗”发展必须坚持以医生为主导、用AI赋能的核心方向。

“AI发展势不可挡,我们要毫不犹豫地支持,但医疗行业关乎生命,必须带着审慎的态度去接纳和应用。”张涤强调,医生绝不能过度依赖AI。如果医生自己不学习经典、全靠AI分析数据,会导致传承内核的丢失。中医讲究因人、因地、因时制宜,AI考虑得再周全,也不如医生面对面望闻问切来得贴合实际。

回归医疗本质,守住安全底线

“AI医疗越来越火,应当尽快推动其回归医疗本质,坚持以患者为中心。其中,最重要的就是守住安全底线。”王建安指出,因医疗领域具有高专业性、高风险性与强伦理属性,必须清醒认识到AI医疗的“有所不能”和“有所不应”。安全底线一旦失守,轻则影响诊疗质量,重则危及患者生命、引发系统性风险。

王建安指出,当前我国在制度设计、技术标准、持续监管、主动防御等方面尚未形成系统完备的安全保障体系,“AI﹢医疗”面临着几大挑战。一是数据安全。AI应用的底层支撑是大数据,若数据源不规范、不精准,相关AI产品便可能存在安全风险。二是算法不透明。当前部分基于大模型的AI医疗产品决策过程不够透明,使医生往往无法清晰判断算法建议是否符合具体临床情境以及结论是否符合循证医学证据,出现结果偏差时也难以追溯原因。三是网络新型安全威胁。AI医疗系统与医院信息系统深度耦合,数据接口复杂、攻击面扩大,已成为网络攻击的高价值目标。一旦AI诊断输出遭受恶意干扰,将直接危及患者生命安全。

为推动AI医疗高质量发展,让技术加速惠及广大基层群众,王建安建议,强制推行AI医疗“可解释性”准入标准,明确AI辅助决策须提供“临床逻辑链”,将“透明、可解释、可审核”作为三类医疗器械审批的硬性门槛;强化医疗数据全链条安全治理,构建AI医疗全生命周期安全监管体系,国家层面出台AI医疗安全审查标准,医院建立监测平台,形成“部署—监测—迭代—退出”的闭环管理,穿透“算法黑箱”。

 

资料链接:构建安全智能医疗生态须直面四个问题

人工智能(AI)大模型正加速融入医疗健康生态,但其背后的法律责任、伦理边界与风险分担问题仍缺乏明晰框架。如何让AI在守住安全与伦理底线的前提下健康发展?笔者认为,要明确AI辅助诊疗责任,构建一个安全、可信赖的智能医疗生态,必须直面以下4个问题。

破解“黑箱”确保决策过程可追溯

AI大模型在提供辅助诊疗时,其判断逻辑存在难以解释的“黑箱”特征。这一问题是法律责任认定的首要障碍。

对此,AI辅助诊疗需以“透明与可追溯”为前提。AI服务开发方应严格遵照相关规范,将可解释性框架和模型卡嵌入产品交付流程,使医务人员能够理解AI判断的临床关键依据。医院应要求AI服务开发方提供或自主建设辅助决策日志系统,记录AI调用的时间、输入数据、诊断结果及其置信度分数。这份档案不仅是未来责任追溯的司法证据,也是医院进行质量控制和持续性能监控的生命线。

同时,双方在采购合同中应谈妥透明度条款和审计权条款,拒绝以商业机密为由的过度封锁,并允许专业的伦理委员会和技术审计团队对算法的临床安全性和持续有效性进行定期审查。

界定医疗智能决策的责任归属

当前,AI在医疗体系中多以辅助角色存在,法律上缺乏人格主体,造成了法律上的“主体真空”。当医生过度依赖AI建议导致漏诊或误诊时,如何界定侵权法上的因果关系和近因,是法律实践中的最大难点。

借鉴我国现行医疗损害责任体系,责任可划分为医疗机构与医务人员的过错责任,以及AI服务开发方的无过错产品责任。医院需制定严格的临床使用规范,明确医务人员对AI的建议负有最终的审慎验证和判断义务;若医疗责任是医务人员未尽到合理注意义务或对算法盲目信任所致,则由医疗机构和医务人员承担过错责任。若能证明损害源于系统程序缺陷、算法设计瑕疵,或系统性数据偏差、对抗性攻击等新型算法缺陷,则由AI服务开发方承担无过错产品责任。

在司法实践中,应引入具备算法审计能力的技术专家证人。通过技术审计,推动算法缺陷的举证责任适度转移,将证明算法缺陷的责任适度转移给AI服务开发方,以减轻患者的举证负担。在保护患者权益的同时,促进AI技术的稳健应用。

建立维护患者权益的风险分担机制

在AI深度赋能医疗的背景下,数据是核心要素,数据安全、隐私保护需要提升至核心制度保障层面。

首先,必须完善患者知情同意与数据授权机制。医院应在“知情同意书”中增设AI辅助诊疗条款,明确AI辅助决策的方式、依据及不确定性。在数据使用方面,应优先采用数据不出本地、模型协同训练的联邦学习方法,以及对个人信息进行技术性模糊处理的差分隐私方法等隐私保护技术,从技术层面保障数据安全。患者有权选择是否接受算法建议,这体现了医疗服务中的共同决策理念。

其次,应积极探索“AI辅助诊疗责任保险”制度,推动医疗责任险与科技产品责任险协同,形成AI辅助诊疗综合责任险。有关部门应指导保险机构开发相应产品,并要求高风险AI产品的开发者购买足额的保险,从而有效分散赔偿风险、提高理赔效率,为AI辅助诊疗建立风险缓冲机制。

增强医疗智能决策的可持续性

当前,传统监管模式无法有效追踪AI产品上市后的性能漂移和安全风险。同时,跨部门监管协同困难以及人才能力的滞后,都是制约AI辅助诊疗可持续发展的关键因素。

促使监管适配技术发展,必须构建“全生命周期”监管体系:

一是推行AI风险分级管理。借鉴国际经验,基于临床影响和风险程度,将AI应用划分为低风险、一般风险、高风险等级,并采取差异化的监管策略。对于直接参与诊疗辅助决策的高风险AI,应限制在具备高监管能力和伦理审查机制的机构内进行探索。

二是建立基于机器学习运维规范的持续监管框架。监管机构要严把AI产品上市审批关,建立上市后的主动监测、性能追踪和定期再评价制度,要求AI服务开发方和医疗机构建立符合机器学习运维规范的系统,实现对AI产品性能漂移和异常的自动化监测和报告,从技术底层实现全链条监管。

三是加强多主体协同和规范指导。监管机构应加速制定统一的落地标准和细化监管规则。同时,建立由卫生健康行政部门主导的伦理与技术鉴定机构,为复杂的AI辅助诊疗纠纷提供专业、权威的裁决依据。

四是推行人才培养与伦理教育。帮助医生、医院管理者和法律人员了解AI原理和应用场景,加强伦理教育,防止过度依赖。(作者系上海社会科学院信息研究所副研究员   赵付春)

[责任编辑:潘旺旺]