【摘要】当前,伴随着大国数字地缘竞争的日渐加剧,人工智能“武器化”趋势日渐明显。这突出表现为:在军事领域,人工智能正被越来越多的国家用作军事武器;在外交领域,计算外交正在掀起一轮智慧外交革命;在国内政治领域,人工智能正在越来越多地被用作一种政治干预工具。放眼未来,人工智能驱动的社会转型业已拉开帷幕,在智能化浪潮的驱动下,人工智能将无所不在,传统的国际竞争正在悄然演化为以数据和算法为核心的人工智能竞争。在此背景下,我们的社会比以往任何时刻都更加脆弱、更不安全,人工智能不仅是一种新质生产力和社会变革工具,也是一种前所未有的经济竞争、军事竞争与政治竞争武器,给国家安全和社会稳定带来严峻挑战。而要应对人工智能研发和应用带来的技术风向变化,需要用计算思维来理解人工智能、以人工智能技术进步来治理人工智能所带来的安全风险。
【关键词】武器化 人工智能风险 计算政治 大国竞争
【中图分类号】F49 【文献标识码】A
【DOI】10.16619/j.cnki.rmltxsqy.2025.09.009
【作者简介】董青岭,对外经济贸易大学国际关系学院教授、博导,国家安全计算实验室(CLNS)主任。研究方向为大数据科学与国际关系交叉研究,内容涵括大数据海外舆情监测与冲突预警、国际关系自然语言处理与社会情感挖掘、机器学习与国际关系智能分析。主要著作有《大数据与机器学习:复杂社会的政治分析》《复合建构主义:进化冲突与进化合作》等。
当前,伴随着社会生活数字化和智能化趋势的不断发展,人工智能被用作一种国际竞争“武器”的态势日渐明显。这突出表现在:以数据公司和数据科学家为代表的人工智能精英正在成长为新的政治力量,新的社会结构和国际秩序正围绕着人工智能应用展开;[1]现代社交网络和数字平台的蓬勃发展,使越来越多的政治活动被编程化的“社交机器人”和各种“算法偏见”所操控,[2]“智慧驱动型外交”正在引领人工智能时代的跨国政治传播变革。尤其是在深度信息伪造、虚假信息传播和政治“污名化”等方面,生成式人工智能技术正在改变传统国际传播策略与公共外交战略。由此可见,人工智能工具及其算法应用不仅日益成为各国新质生产力的重要组成部分,而且也逐渐发展为各国综合国力竞争的技术新利器。此外,以自主决策系统和致命性自主武器系统(LAWS)为标志的人工智能军事化应用,正在引发新一轮军备竞赛。以智能决策和自主攻击为特征的军事机器人不仅重构了战争的形态,更对人类社会的伦理底线和全球安全治理体系构成了严峻挑战。高度自主化的智能网络和漫无节制的数据使用正在制造一个风险不可预测、责任难以追溯的新型安全困境。毋庸讳言,人工智能技术正以前所未有的深度和广度嵌入政治运行与战略竞争的基本逻辑之中,缔造了一个“数据即生活、算法即权力、智能即统治”的时代。
数智社会:人工智能应用与“内嵌”的安全风险
放眼未来,人工智能驱动的社会转型已然拉开序幕,未来社会本质上就是一个以人工智能驱动为基础的数智社会。形形色色的人工智能工具和智能体不仅改变了人类现有的连接方式、交往方式、工作方式和学习方式,也因其全域渗透性、嵌入性,正在重构人类社会的时与空、虚与实以及人与机之间的界限。[3]在此背景下,传统国际竞争将加速演变为以数据、算法和算力为核心的“计算竞争”。首先,在军事领域,人工智能正越来越多被用作一种新式作战武器。有学者认为,人工智能武器的研发与应用,特别是无人值守系统与智能作战平台的部署,将会革命性改变战争规则与交战方式,给军备竞赛、危机管控和战争伦理带来前所未有的挑战。[4]在人工智能革命的驱动下,未来战争很可能会走向以智能对抗为主导特征的混合战争与智能战争形态。其次,在外交领域,计算外交正成为一种新型外交工作方式。依托超强算力支撑和可选择的人工智能工具箱,计算外交将传统国际关系理论、政治理论、决策科学与计算方法融于外交全过程,具体体现为外交态势感知、外交决策过程、外交战略执行与外交工作流程的算法化、自动化和智能化,诸如自动情报感知、仿真模拟政策执行以及即时追踪政策反馈都将成为外交智慧化转型的典型特征。[5]再次,在国内政治领域,人工智能机器人正被用作一种政治干预手段。作为数字政治中编程化的虚拟人格,不同类型政治机器人(也称“数字水军”或“机器军团”)不仅可以独立进行人机互动,还可以在机器与机器之间进行互粉、互转和相互交流,使得政治信息操作可以在各个虚拟账户之间形成信息协同,进而创造“信息涌现”、人工生成舆论潮流。[6]就此而言,政治机器人常被别有用心的政治行为体隐秘地用于制造并支持各种误导性言论,并通过“僵尸网络”和自动代理强化错误信息和虚假信息的传播,放大问题争议点、煽动仇恨言论,制造政治两极分化,进而影响政治行为体的选择偏好,趁机攫取政治支持。
综上所述,在万物皆可计算的数智时代,数据即资源、算法即规则。作为一种“嵌入式”隐蔽工具,人工智能正在悄然演变为社会进步的核心驱动力和大国角力的焦点。在此背景下,人工智能逐步呈现“武器化”趋势。就此而言,人工智能不仅已成为新的风险源和安全挑战,其本身也在嵌入社会结构的过程中日渐成为权力塑造主体。这突出表现为以下两方面。
第一,用于驱动人工智能决策的数据挖掘可能会带来隐私泄露与政治胁迫。一些主张数据开放的学者认为,数据的价值在于开放、流动与不断被使用,如果通过数据分析可以挖掘更多决策信息、精准定位安全对象和客观预测竞争对手的战略意图,则基于数据的人工智能应用将会极大改善安全决策的质量、提高资源配置效率并最终促进和扩大国家利益。[7]然而,反对的观点也极为尖锐,一旦毫无节制的数据分析变成安全政策的工具,由机器人参与或操控的战争决策很可能会使全球武装冲突常态化,科学家、编程人员和游戏玩家等各色人员都有可能利用无人系统参与武装冲突,机器攻击程序的开源传播和低廉制作成本,将塑造人人都拥有相互伤害能力的冲突进程。[8]就此而言,“如果未来有一天,机器和计算实现了对人类世界的全面接管,那么这种放弃就是末日的开端”。更为激进的观点甚至想象,未来战争极有可能演变为一种“超个性化战争”(The Hyper-Personalization of War),[9]即在高度数字化的战场环境中,敌对方或可通过网络手段持续追踪作战人员的个体化数据,包括其在线行为、家庭结构乃至子女就学信息,进而制造“个性化威胁”、形成认知领域的“精准打击”,使士兵无法专注作战任务。毫无疑问,技术的迅猛发展固然极大提升了社会运行效率与个人生活的便利性,然而也暴露出相伴而生的脆弱性:从可穿戴设备到自动驾驶系统,从智能家居到3D打印技术,凡此种种皆可能被黑客操控,诱发灾难性的安全风险。因此,在人工智能时代,我们的社会比以往任何时期都更加依赖技术,也更易受其反噬所伤,呈现出一种技术赋能与风险同步增长的状态。
第二,用于实现人工智能功能的算法模型具有穿透性、嵌入性和泛在性。简单来说,穿透性指的是算法能够轻松越过国家的物理疆界,对他国进行悄无声息的政治扰动,以至于传统的国家物理疆界和主权原则形同虚设,在此意义上很多国家的内部动荡与“网络颜色革命”正日趋演变为他国算法干预的结果;嵌入性是指算法作为智能社会系统管理的一部分,总是被嵌入特定的社会情境,由某些特定行为体所开发和部署并应用于具体领域,通过嵌入性的调配资源和支配行动全面参与到人类社会生产、分配和决策等关键环节中,日趋演变为驱动各领域创新涌现、塑造人类认知并改变资源分配格局的重要力量;而泛在性则是指计算机与网络形成了一个“无时不在、无处不在”的计算环境,算法与多元领域的深度耦合将物理空间与虚拟空间融合成一个庞大的数字生态系统,智能技术在嵌入社会结构的过程中通过隐性或显性的规则形成了嵌入式、渗透性的泛在化权力。总体而言,用于实现人工智能功能的泛在化算法是所有事务自动化和智能化执行的核心,掌握核心算法即意味着拥有定义社会规则的绝对话语权。正是考虑到算法的穿透性、嵌入性和泛在性,智能社会的秩序重构正在以算法为中心展开,那些掌握算法开发、部署和使用的行为体将重塑权力分配格局。由此,伴随着大量公共事务的决策从人的判断日趋转向机器的“判断”,人类事务治理也日趋演变为算法的治理,一个由算法决策所建构的“算法社会”已隐约可见。
人工智能异化:技术滥用与非道德的机器
简单来说,人工智能可能带来的威胁是多方面的,而且越来越复杂。在智能化浪潮的驱动下,人工智能将无所不在,传统的国际竞争正在悄然演化为以数据和算法为核心的人工智能竞争。就此而言,人工智能既是一种新质生产力和社会变革工具,也是一种前所未有的经济竞争、军事竞争与政治竞争武器,给国家安全和社会稳定带来严峻挑战。
首先,人工智能极大降低了网络虚假信息生成的技术门槛和经济成本,助长了网络虚假信息的传播和错误信息的泛滥。这突出表现为以下三个方面。一是各国政府、政党组织、社会团体乃至恐怖组织正投入大量资源构建庞大的“网络数字水军”与“社交机器人军团”,以系统化的方式实施计算宣传。他们可以通过部署智能算法操纵的机器人,在社交平台上有组织地操控话语空间,制造虚假共识,误导舆论认知,进而实现其政治目标。更有甚者,将计算宣传特别是“政治机器人军团”纳入“网络战武器库”,作为国际竞争的关键战略工具。二是用于支撑人工智能的任何算法模型,包括大语言模型,都带有数据偏见和算法偏见,由此导致由人工智能所生成的内容并不总是中立的,而是潜藏一定政治倾向。在此情形下,人工智能一方面可以赋能政治战略的制定与执行、造就新的政治权威;另一方面可能会因为输出偏见而造成认知安全问题。三是算法赋能不仅使得虚假信息的甄别成本飙升,而且使技术上的侦测难度越来越大。过去数年间,假新闻泛滥现象正愈发凸显。为应对这一挑战,事实核查人员需投入大量精力,对政治演说、媒体报道、学术出版物及政府统计数据进行系统性验证。然而,由于虚假信息的海量性以及病毒式的繁殖与变异能力,仅有极少数争议性内容能够接受全面的事实核查。据报道,美国假新闻检测研究长期面临学术关注不足、资金投入有限和制度支持匮乏等困境。相比之下,虚假信息的生成技术却能获得更多资源。这使得“制造谎言”远比“消灭谎言”容易。在部分国家与地区,假新闻已经诱发扰乱公共舆论、操纵选举结果与煽动游行示威等危机,严重破坏了国家政治稳定。
其次,人工智能赋能编程技术降低了编程成本、提高了编程效率、扩大了编程技术的普及范围,这在一定程度助长了网络犯罪和金融欺诈。一方面,以生成式人工智能为代表的新一代人工智能技术迅猛发展,显著降低了获取复杂代码程序与功能应用的技术门槛,使个体能够更轻易地发动网络攻击,重构了网络安全的攻防格局。在此情形下,计算外交领域中有组织地网络攻击和协同舆论压制呈现常态化与精细化趋势。诸如利用ChatGPT所生成的AI代理人(AI Agent)模拟高度“类人化”的行为,通过注册虚假账户、盗用他人身份信息、构造虚构的个人资料(如头像、发布历史、兴趣偏好)以及生成大量虚假关注者网络等手段,潜移默化地嵌入政治传播链条。在此基础上,人工智能通过生成并发布虚假政治声明、伪造社会议题、扩散偏置信息等方式操控舆论。同时,辅之以程序化、自动化操作,如“自动点赞”“自动转发”等方式,制造出虚假的政治互动氛围,形成一种人机混淆的“情景幻觉”。此外,借助调用编程接口(API),政治机器人能够模拟人类用户与社交平台之间的沟通模式,就特定议题展开预设式对话,进一步模糊了人机之间的界限。[10]另一方面,以FraudGPT为代表的人工智能作案工具的出现,使得网络犯罪分子能够低成本开展高质量的“网络钓鱼”活动,在几秒钟内几无破绽地复制银行网站,此类AI代理可被用来制作数百万个针对特定受害者的个性化骗局。此外,以深度伪造为代表的生成式人工智能还可用于欺骗生物识别验证系统,创建足够复杂的欺诈性文档和视频,以绕过客户识别系统和反洗钱程序,从而实现社会工程欺诈。
再次,人工智能技术被“武器化”运用于军事、政治与外交领域,有可能会降低冲突门槛、诱发外交危机并造成伦理道德挑战。这突出表现为以下三个方面。其一,作为一种渗透武器或隐蔽性破坏武器,人工智能技术正越来越多地被用于识别国家防御系统、企业网络和关键基础设施中的安全漏洞,通过自动化网络侦察和渗透测试,人工智能可以自主决策、执行非人类道德控制的网络攻击,这些攻击很可能会使军事和民用通信失效,破坏交通、电网或金融体系,从而对国家安全和民众的生命财产安全构成直接威胁。除潜在网络威胁外,人工智能还降低了开发核武器、生物武器、自动黑客工具和恶意软件的门槛,敌对国家和恐怖组织可能用有限资源制造非常规武器,从而加剧数智环境下的杀伤性武器扩散并带来潜在道德风险。其二,人工智能训练所内嵌的算法偏见会强化国家间业已存在的政治信任危机,引发两国民众之间的相互猜疑和“网络骂战”,进而破坏两国和平交往的民意基础,加之算法误操作或算法本身设计缺陷触发的网络攻击,很可能对国际关系造成重大影响。此外,在人工智能技术轻松易得且难以追踪溯源的情形下,极端分子或第三方的算法陷害极易将整个国家拖入敌对或战争风险。其三,自主武器的使用可能会改写战争规则并冲击战略稳定,引发新型军备竞赛。有学者担忧,人工智能军事武器的研发与应用将会使各国更难研判和评估彼此的军事实力和战略行动,大国间因人工智能应用而引发的猜疑和误解将会加剧,“算法黑箱”问题将使军备竞赛风险进一步上升。[11]
综上所述,作为一种新式竞争工具,人工智能武器能够轻松越过国家的物理疆界,对他国进行悄无声息的政治扰动和经济打击,以至于传统的国家主权原则形同虚设。在数智时代,人工智能将被广泛且频繁应用于社会场景。就此而言,人工智能不仅已成为新的风险源和安全挑战,其本身也在嵌入社会结构的过程中具有了安全本体的意义。
治理人工智能风险:以计算思维塑造计算时代的安全防护
伴随着ChatGPT和DeepSeek的爆火,人工智能“奇点”将至,人工智能在给人们的社会生活带来便利和机会的同时,风险和威胁也如影随形。置身人工智能时代,合理利用人工智能已成为塑造新型竞争优势、维护国家安全的重中之重。以美国为首的西方国家已把人工智能领域的竞争上升为国家优先战略,未来国际秩序的重塑也正在以人工智能竞争为核心赛道展开。借助人工智能工具对推特(现为X)、谷歌和微博等平台信息进行挖掘与计算,安全观察者得以实现对复杂政治社会动态的前瞻性把握。人工智能不仅能够服务于动态追踪大规模城市抗议的空间分布与时间演化路径,识别潜在的恐怖主义活动线索,还可辅助解析国家层面的战略安全风险。政治实践者借助人工智能工具对利益攸关人群进行精细划分、对政治态势进行整体感知、对危机进行预警和预测,提升了决策的科学性和政治沟通的效率。毫无疑问,尽管围绕数据获取的正当性、“算法黑箱”问题及隐私伦理问题的争议仍广泛存在,但人工智能嵌入安全研究与安全维护的趋势已难逆转。在某种意义上,由技术引发的安全风险需要采用技术思维和技术手段对抗,人工智能已成为维护国家安全的新利器。
就此而言,基于人工智能的安全治理本质是以计算对抗计算、用智能治理智能。简单来说,安全治理的计算思维是一种典型的社会工程思维,它假定万物皆数、万物皆可计算,旨在利用系统科学方法和计算手段来理解社会系统的运行,即实现社会环境与社会行为的可监测、可计算与可评估。通过多源数据的即时监控和超高性能即时计算,人工智能工具正日益成为安全治理与政治决策的关键技术支点。通过对社交媒体、地理信息、传感器数据及开源情报的深度整合与即时分析,人工智能系统不仅能够实现对突发事件的快速感知、精准定位与动态追踪,还能够自动生成事件报告与危机预警,大幅提升应急响应与态势评估的时效性与准确性。更为关键的是,这使得安全研究者与政治决策者得以在事态临界点到来之前精准掌握潜在的冲突爆发点,进而部署前置性的政治沟通、风险化解与预防性外交战略。
正是考虑到人工智能革命对现代商业体系、知识生产机制和政治运行逻辑的基础性支撑作用,各国政府纷纷出台“AI治国方略”,强调科学决策不仅依赖历史经验的真知灼见,更需基于客观数据的态势感知与精准识别。譬如,通过协同过滤算法筛选恐怖嫌疑人、以K-Means邻近算法进行特征聚类分析、采用PageRank算法进行网络链接分析,以及通过随机森林算法进行分类预测等,这些基于人工智能算法的安全应用重在自动规避数据噪音、挖掘数据关联,进而建立特征模式识别和进行分类预测。概括来说,作为数据、算法与算力的综合运用,人工智能驱动的安全战略较传统安全战略具有突出的即时信息捕捉、远程监控和深度挖掘能力。算法之下,冲突全貌乃至冲突的每一个细节都一览无余,有助于决策者在复杂危险的环境中精确识别冲突的类型及其特征,进而生成高效且具备较高可行性的危机管控行动和人道救援方案。总体而言,在对外沟通交往、国家安全维护和冲突预防领域,人工智能应用的场景时代已经来临,世界各国正在竞相推进基于人工智能驱动的安全理论创新与实践模式布局。
首先,需要推进具有普遍共识和平衡多方利益关切的国际治理标准建设。人工智能威胁超越了国界,如果缺乏全球协调,人工智能的安全治理将无据可循、无规可依。就此而言,人工智能治理是一个全球性问题,而不仅仅是一个国家问题。鉴于人工智能应用的穿透性、嵌入性和泛在性,世界各国应齐心协力,确保政府和私营部门以及非营利部门在全球范围内就共同的原则和可执行的保障措施保持一致,最低目标应是建立能够确保人工智能安全发展的全球基线标准,并将人工智能安全措施纳入国家政策体系与司法框架,同时推进跨国司法协调与执法合作,确保各国行动合规且步调一致。换言之,通过遵守公认的最低国际标准,开发人员和服务提供商可以展示其人工智能系统的可预测性和可靠性。如果没有这样的全球基准框架,人工智能的安全治理很可能陷于支离破碎、漏洞丛出的境况,让犯罪分子有机可乘。
其次,助推人工智能安全技术与标准研究并激励市场提供安全产品供应。在某种程度上,人工智能技术的快速发展超过了安全标准的开发和实施速度,加之人工智能技术的复杂性和多样性,以及人们担心过于严格的标准可能会扼杀人工智能行业的创新和竞争,这使得制定人工智能通用标准具有挑战性。此外,当下各国政府和市场对人工智能开发进行了大量投资,但与人工智能安全相关的产品研发资金仍然严重不足。尽管存在这些障碍,人工智能标准化的前景依然充满希望,人们越来越认识到让广泛的利益相关者参与标准化过程的重要性,包括人工智能开发人员,消费者和监管机构等,特别是国际标准化组织(ISO)、电气和电子工程师协会(IEEE)等团体正在积极开发人工智能标准,这些努力集中于人工智能系统的术语、道德考虑和技术规范。另外,在市场激励方面,政府和投资机构应充分发挥资金引导作用,可考虑为开发人工智能安全解决方案创造财务和运营激励措施,包括重点投资和支持人工智能驱动的欺诈检测、深度伪造身份验证和高级网络安全工具研究,应鼓励将风险评估和对抗性测试整合到高风险人工智能应用程序中,并采用防御性人工智能机制来检测和减轻对抗性操纵。
再次,建立人工智能透明度与问责机制、筑牢人工智能负责使用的安全门槛。隐私保护是监管人工智能训练数据的主要挑战,另外一个挑战则来自数据偏差。如果用于训练人工智能系统的数据存在偏见,人工智能系统很可能会产生不公平或歧视性的结果。因此,监管数据以确保其具有代表性和无偏见至关重要。就此而言,建立严密的法规体系可以帮助建立数据隐私、偏见和透明度标准,从而促进人工智能负责任和合乎道德的使用。概括来说,监管目标至少要涵盖以下三点:一是数据的采集须是法律允许且经用户授权同意的,在技术上合乎隐私保护的各项基本要求;二是算法的训练须是透明和可解释的,否则基于算法的决策无法被问责;三是监管的目的在于事前审查、事中防护与事后救济,因而需要明确的风险评估机制和奖惩措施。当然,在不损害隐私或机密信息的情况下提高透明度可能较为困难,但是平衡安全和透明是安全使用人工智能所必需的。
综上所述,人工智能已迅速成为我们日常生活不可或缺的一部分,影响着政治、军事、外交、医疗、教育、金融和娱乐等不同领域。但由于人工智能的技术复杂性、快速发展和跨多个行业的广泛应用,监管和治理人工智能风险越来越具有挑战性。有效的人工智能治理机制需要立足理解人工智能的运行原理,以人工智能对抗人工智能、用人工智能治理人工智能,既要确保人工智能系统的可问责、透明度和公正性,也要促进良性竞争与防止滥用。
注释
[1]董青岭:《数据力量的崛起与新秩序的形成》,《世界知识》,2019年第20期。
[2][10]董青岭:《数字外交中的深度伪造》,《中国信息安全》,2022年第10期。
[3][11]董青岭、关意为:《算法的“武器化”:计算政治时代被嵌入的安全风险》,《东北亚论坛》,2025年第1期。
[4]朱启超:《人工智能武器化的发展趋势及治理策略》,《人民论坛》,2025年第2期。
[5]董青岭、曹飞翠:《计算外交:基于智能驱动的外交革命》,《国际观察》,2024年第2期。
[6]韩娜、孙颖:《国家安全视域下社交机器人涉华议题操纵行为探析》,《现代传播》,2022年第8期。
[7]J. B. Aladetan, “Harnessing Big Data for National Security: A Review of Information Systems and Emerging Technologies in the U.S.,“ World Journal of Advanced Research and Reviews, 2024, 24(1).
[8]O. A. Osoba and W. Welser IV, “The Risks of Artificial Intelligence to Security and the Future of Work,“ RAND Expert Insights, 6 December 2017.
[9]C. J. Dunlap Jr., “The Hyper-Personalization of War Cyber: Big Data, and the Changing Face of Conflict,“ Georgetown Journal of International Affairs, 2014(15).
"Weaponization" of Artificial Intelligence and National Security in the Age of Digital Intelligence
Dong Qingling
Abstract: Currently, as the digital geopolitical competition among major powers intensifies, the trend of artificial intelligence "weaponization" has become increasingly evident. This is prominently manifested as follows: In the military field, artificial intelligence is increasingly being used by more and more countries as a military weapon; in the diplomatic field, computational diplomacy is triggering a round of smart diplomacy revolution; and in the domestic political arena, artificial intelligence is increasingly being used as a political intervention tool. Looking to the future, the social transformation driven by artificial intelligence has already begun. Under the impetus of the intelligent wave, artificial intelligence will be ubiquitous. Traditional international competition is quietly evolving into an artificial intelligence competition centered on data and algorithms. Against this backdrop, our society is more vulnerable and less secure than ever before. Artificial intelligence is not only new quality productive forces and a tool for social transformation, but also an unprecedented weapon for economic competition, military competition and political competition, posing severe challenges to national security and social stability. To cope with the technological trend changes brought about by artificial intelligence research and application, there is the need to understand artificial intelligence with computational thinking and manage the security risks brought about by the advancement of artificial intelligence technology.
Keywords: weaponization, artificial intelligence risks, computational politics, great power competition
责 编∕李思琪 美 编∕周群英
