摘 要: 随着人工智能技术的蓬勃发展,“人工智能+政务”应用路径,将呈现从“人工智能+单个政务事项”向“人工智能+一类政务事项”,再向“人工智能+绝大多数政务事项”发展的阶段性演进;并逐步实现“人工智能+政务”横纵贯通、条块联动,重构政府政务的行政逻辑,提升政务服务效率和质量。这一过程伴随着数据风险、人工智能技术风险、政务事项样本集复杂性风险、经济风险和伦理风险等多重挑战。为确保稳妥有序推进“人工智能+政务”建设,建议构建准备度评估体系、制定指引性建设指南、开展极端情境压力测试,并全面夯实数据治理、综合技术能力、标准体系等应用根基,实现技术效率、行政规范与公共价值的最佳平衡。
关键词:人工智能 政务服务 数字政府
【中图分类号】C916 【文献标识码】A
党的二十届四中全会通过的《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》提出:“全面实施‘人工智能+’行动,以人工智能引领科研范式变革,加强人工智能同产业发展、文化建设、民生保障、社会治理相结合,抢占人工智能产业应用制高点,全方位赋能千行百业。加强人工智能治理,完善相关法律法规、政策制度、应用规范、伦理准则。完善监管,推动平台经济创新和健康发展。”[1]随着人工智能技术在全球范围内的蓬勃发展,“人工智能+政务”的强大应用潜力,成为广泛关注的焦点。近年来,北京、上海、杭州、深圳等城市,围绕智能问答、智能引导、智能预填、智能帮办、智能辅助审批等“人工智能+政务”应用进行了积极的探索[2],为人工智能赋能政务积累了宝贵的实践经验,同时暴露出“人工智能+政务”中的诸多风险隐患。面向方兴未艾的“人工智能+政务”,本文将从发展的视角就其应用路径、风险与应对展开讨论。
“人工智能+政务”应用路径的阶段性特征
从人工智能技术演进的角度看,按照技术能力的差异,将人工智能技术划分为弱人工智能、强人工智能、超人工智能三个阶段。从“人工智能+政务”持续与长远发展的角度看,笔者认为可按照“人工智能+政务”应用的范围,将其划分为三个阶段:“人工智能+单个政务事项”阶段、“人工智能+一类政务事项”阶段、“人工智能+绝大多数政务事项”阶段。
“人工智能+单个政务事项”,是指人工智能技术运用于单一的政务事项。这类事项的特点是业务结构相对清晰,但对个人而言重复性或疲劳性较高,运用人工智能技术后可提升政务效率、降低劳动负荷等。目前各地探索的“人工智能+政务”应用大多在此层面,主要分为两类:一类是政府与社会互动的简易外部事务,如“高效办成一件事”;另一类是结构清晰的政府内部管理事务,如公文写作、汇报材料、简单的环评、社会救助等。
“人工智能+一类政务事项”中的“一类”,是相较于第一阶段“单个”而言,指多个政务事项横向或纵向联办,所形成的一类政务事项集成办理。与之相对应的,“人工智能+一类政务事项”应用,是由“人工智能+单个政务事项”应用横向或纵向集成而形成。这一应用的建设,主要立足于两个支点:一类政务事项纵向或横向的联办(集成办)能力,以及“人工智能+政务”应用的系统集成能力。前者包括一类政务事项业务流程的打通与重构、数据共享与共治以及责权划分等,后者包括跨区域、跨行业、跨系统的人工智能技术应用集成、多模态数据的整体性治理、复杂技术伦理机制等。一些实践案例表明,采取由“人工智能+一件事”逐步集成至“人工智能+一类事”的建设路径,在实践中更为稳健可行。
“人工智能+绝大多数政务事项”中的“绝大多数政务事项”,是指除因安全等特殊原因不适宜开展“人工智能+”的事项之外的所有政务事项。“人工智能+绝大多数政务事项”应用,是在“人工智能+一类政务事项”应用基础上的进一步集成,将形成各级各类政务事项横纵贯通,条块联动,跨行业、跨部门、跨地区协同的“人工智能+政务”应用体系,实现更高水平、更深层次、更宽领域的“人工智能+全国一体化在线政务服务平台”。在这个阶段,人工智能将纵到底、横到边,打破科层制结构及跨部门协同的壁垒,重塑政府政务运行的行政逻辑,从而实现技术效率、行政规范与公共价值三者的最优平衡。
“人工智能+政务”应用的风险研判
数据质量与安全。高质量的政务数据集,是保障“人工智能+政务”应用得以正确、高效运行的基础。我国在持续提升数据治理水平的同时,面临着数据安全这一关键瓶颈。在同一政务系统内,存在数据缺漏不完整、部分数据失实、数据来源缺失、敏感数据缺乏必要标注、数据使用范围缺乏明确界定、数据使用权模糊、数据分级分类制度不完善、数据时效性差异等风险。跨政务系统间政务数据协同,存在着数据标准不统一、数据内容不一致、数据时间属性不匹配、数据违规汇聚、协同后数据集产生敏感内容、数据责任主体模糊、协同机制不完善、数据冲突等风险。
算法“黑箱”的不可解释性。当前,人工智能算法的“黑箱”问题尚未得到有效解决。将人工智能运用到政务领域后,其算法“黑箱”的不可解释性,可能会滋生一系列公共信任与安全风险,如算法偏见、模糊行政责任边界、削弱公共行政的权威性、影响政府决策的合法性等。生成式人工智能技术存在先天的技术模型缺陷,使其不可控且必然地会出现编造虚假信息的“AI(人工智能)幻觉”[3]。非开源算法的人工智能技术会进一步放大算法“黑箱”的风险,而开源算法的人工智能技术,又容易遭致模型窃取、模型投毒等针对性攻击,且这类风险威胁的隐蔽性较强,往往难以提前识别与化解。
政务事项样本集的复杂性。训练样本集的质量,将显著影响人工智能输出结果的质量。各级各类政府部门多年所积累的政务事项案例,汇集成为“人工智能+政务”应用的训练样本集。由于政务事项本身具有高度复杂性,地域差异、行业特色以及自由裁量权等因素,均会影响其具体办理过程,导致大量基础条件相似的事项,在流程与结果上出现显著差异。例如,即便是同一类部门处理的同类事项,也可能因地域、时间或经办人员的不同而产生不一致的结果。同时应注意到,“高效办成一件事”场景之外的政务事项显然更多,随着“人工智能+政务”事项范围的增加,其使用的事项案例集必然随之扩大,此时案例之间的不一致性风险也将会随之增加。
投入回报的不确定性。相较于传统政务信息化项目,“人工智能+政务”投入成本更高。然而,由于其所涉数据、技术和业务的复杂性,其项目成功率却低于传统政务信息化项目。高投入与低成功率,使得政府必须审慎把握其经济风险。“人工智能+政务”直接投入的系统建设成本并不低。如深度求索的大参数版本模型对硬件和算力资源要求较高,使用时仍需针对具体场景进行模型优化、知识库构建,若考虑人工智能模型技术进步跃迁后的系统升级,则所需持续投入的成本更为巨大。为推广并保障“人工智能+政务”应用良好运行,其间接成本可能显著高于直接成本。
伦理风险。相较于工程、科学等领域中客观明晰的数据,与伦理相关的数据边界往往模糊不清,致使人工智能难以通过数据训练准确掌握伦理规则。这种规则偏差将直接导致其推理结果失准,引发伦理风险。人工智能技术以效率为导向,而政务行政的核心在于维护公平正义。因此,“人工智能+政务”既需高效服务多数群体,也要保障少数群体权益,必须在全周期中妥善处理效率与公平、人机协同行政与决策的关系,稍有不慎即可能引发伦理问题。由于涉及技术、行政及使用场景的复杂性,伦理风险遍布于训练数据、算法、场景、系统及具体事项等诸多环节。这要求汇聚数据科学、人工智能、公共行政、伦理学、技术哲学及文化等领域专家学者,共同围绕上述环节与风险点,设计审查内容、流程、标准与规则。然而,这一领域伦理审查研究尚处起步阶段,对实践中的风险防范指导仍显不足。
“人工智能+政务”应用的风险应对
重视“人工智能+政务”建设前论证工作,建设“人工智能+政务”准备度评估体系。国务院文件提出,“在确保安全的前提下稳妥有序推进人工智能大模型等新技术在政务服务领域应用”[4]。以“人工智能+政务”准备度评估为抓手,开展“人工智能+政务”建设论证工作,既是“确保安全的前提下”要求的具体落实,也是指导实践的有效切入点。“人工智能+政务”准备度评估,是在“人工智能+政务”应用建设前,围绕政府“人工智能+政务”相关数据、技术、政务系统、政务事项、伦理等维度的当前基础和发展趋势,展开准备度评估,评价政府开展“人工智能+政务”应用各方面条件的成熟程度,为稳妥有序推进“人工智能+政务”应用提供科学决策支撑。
准备度评估体系的指标,可考虑但不限于:一级指标数据准备度,二级指标含数据质量,如完整性、一致性、合规性、准确性、及时性;数据治理能力,包括数据分类分级制度、全生命周期管理流程、数据治理工具;数据共享基础,包括共享目录、共享接口、安全机制等。一级指标人工智能技术准备度,二级指标含模型适用性,如包括模型与政务事项适配性、模型与政务系统环境适配性、模型评估和优化能力、“模型+政务事项”效果的评估和预测能力;技术支撑能力,包括本地人工智能算力中心、云服务支撑、技术团队等;技术安全性,如对抗性测试、可解释机制。一级指标政务系统准备度,二级指标含系统兼容性、安全防护能力、运维保障水平等。一级指标政务事项准备度,二级指标含政务事项规范性、标准性、业务流程协同性等。一级指标伦理规制准备度,二级指标含法规适配性、伦理审查机制、责任追溯体系等。
面向省市各级行政单位和各类政务事项,继续分级分类推出并不断完善“人工智能+政务”应用指引性建设指南。在“人工智能+政务”的发展过程中,仅有宏观层面的方向指引仍不足以应对具体实践中的挑战。从短期来看,当前各地政府在推进“人工智能+政务”应用过程中,仍面临以下几方面实践困境:在建设广度上,难以把握覆盖范围,如是否所有政务服务应用或网页,都需配备人工智能问答功能;在技术应用深度上,缺乏明确标准,难以界定系统应定位于智能辅助还是智能决策层级;在经验借鉴方面,对北京、杭州、上海、深圳等地区的成功做法的学习借鉴,尚未形成系统化的本地化应用指导方案。从长期来看,由于缺乏统一标准与整体规划,各地自行探索建立的具有地域或行业特色的“人工智能+政务”应用虽然多样,却不利于未来同级政府间各类政务事项的横向集成,以及各级政府在同类事项上的纵向贯通,这将显著增加“人工智能+一类政务事项”应用在后续建设中的难度与成本。
“人工智能+政务”应用指引性建设指南,应依据政府行政级别和政务事项类型进行分级分类,逐步形成矩阵结构的指引性建设指南体系。在单份指引性建设指南中,应就本级本类“人工智能+政务”事项建设的先后顺序给出建议,指出相应政务事项匹配的人工智能技术路线、数据治理方案、政务事项业务流程规范、经济成本平衡方法、伦理规则措施、风险处置策略、预估效果等。同时,为同级不同类型的“人工智能+政务”事项如何横向联办,同类但不同级的“人工智能+政务”事项如何纵向联办,给出后续集成路径。“人工智能+政务”应用指引性建设指南的起草,可考虑制定分级分类标准,构建建设指南体系框架,同时将各地探索的优秀建设案例归纳、总结、提炼成对应级别和类型的建设指南,并根据不断涌现的先进经验和做法,持续完善建设指南。通过制定规范化的指引性建设指南,将各地创新经验推广普及,以落实国务院“一地创新、多地复用”的要求。
开展极端情境下的压力测试,确保“人工智能+政务”应用在复杂条件下仍能保持稳健运行。国务院文件提出,“加强保密管理和系统防护,强化算法合规监管和人工审核把关,确保人工智能应用安全可靠”[5]。覆盖面不断扩展、条块联动更为紧密、复杂度不断提升、开放性日益增加的“人工智能+政务”应用体系,是典型的开放复杂巨系统。在这个开放复杂巨系统中,单个要素风险、要素间关联关系的风险、参与主体的风险、外部环境风险等,都可能引起蝴蝶效应,进而造成整个系统的风险或坍塌。具体而言,单个要素风险,如数据失实、算法偏见、业务流程不一致、伦理失范等;要素间关联关系的风险,如“数据—算法”间的数据投毒风险,“算法—业务”间的不匹配风险等;参与主体的风险,如工作人员的泄密或误操作风险,大量人员同时办理业务的并发冲击风险等;外部环境风险,如敌对势力攻击、芯片后门等。上述风险又常常以串联、并联、混联的方式彼此叠加,涌现出更为复杂的系统性风险。
面对如此复杂的风险形势,应积极主动开展极端情境下的压力测试,找出风险隐患,并前瞻性地设计和部署相应的防范化解措施。全国一体化在线政务服务平台的“人工智能+政务”应用体系,可组织相应压力测试。地方重要政务服务平台的“人工智能+政务”应用体系,应在中央相关机构的指导下开展压力测试。压力测试,主要围绕敏感性测试和假设情景测试两个方面展开。敏感性测试,通过极端变动单个或关联风险要素,来评估其对系统安全的影响,并定位可能引发“黑天鹅”事件的关键点,以便进行针对性防护。假设情景测试,可依托钱学森综合集成研讨厅的方式,由专家研讨、设计可能面对的极端假设情景,重点分析此情景下不同风险间的相互作用,以及对“人工智能+政务”应用体系安全的综合影响,找出可能引发系统性风险的高危情景,继而有针对性地对“人工智能+政务”应用体系的系统设计和结构进行优化,并建立和完善相应的应急预案体系。
夯实“人工智能+政务”应用根基,为“人工智能+政务”应用体系建设提供有力支撑。一是全面提升政务数据治理水平。持续推进数据分类分级管理,数据跨行业跨部门互联互通,数据采集、处理等相关标准规范建设,立足“人工智能+政务”场景,加快建设高质量数据集。二是不断提升“人工智能+政务”涉及的综合技术能力。包括:对模型基础能力的把握,模型和政务适配性的分析,模型优化效果的预测,“模型+政务事项”效果的评估和优化,算力和云服务支撑,主动性安全技术,可解释机制等。三是完善政务事项标准体系建设。提升政务事项标准化、规范化、结构化水平,实现同行业同领域的“一件事”标准统一、业务协同。四是加强“人工智能+政务”伦理审查机制建设。围绕“人工智能+政务”伦理研究,设立相应的研究项目,成立相关的学术研究组织、智库等,面向“人工智能+政务”伦理审查中的重点问题和重大伦理风险展开深入研究,不断完善伦理审查机制。五是加强“人工智能+政务”综合绩效评估。从公众满意度、业务规范、业务协同、服务优化、经济投入、综合成本、风险防控等角度,开展“人工智能+政务”综合绩效评估,以评促建,不断提升“人工智能+政务”建设水平。
【本文作者为华中科技大学非传统安全研究中心主任、公共管理学院教授、博导;本文系教育部哲学社会科学研究重大攻关项目“面向新一代人工智能的网络空间风险与防范机制研究”(项目编号:23JZD016)、国家社科基金重点项目“政治安全视角下数据要素流动的风险识别与评估研究”(项目编号:21AZZ013)、华中科技大学文科“双一流”建设项目基金资助(项目编号:2025ZKIJD05)的阶段性成果】
注释略
责编:贾 娜/美编:石 玉