网站首页 | 网站地图

大国新村
首页 > 学术前沿 > 成果首发 > 正文

关于人工智能治理问题的若干思考(3)

人工智能治理难题

尽管对人工智能风险认识和评价有相当大的分歧和争议,但学界、业界以及政界对人工智能治理的必要性已形成基本共识。不仅霍金、马斯克等人发起倡议的《人工智能23条原则》,强调人工智能的规范发展必须纳入正确轨道,而且各国政府和行业协会在其人工智能发展战略规划或行业报告中,都有比较明确的人工智能监管和治理要求,如2016年9月,英国标准协会发布《机器人和机器系统的伦理设计和应用指南》,是业界第一个关于机器人伦理设计的公开标准,旨在指导机器人设计研究者和制造商如何对一个机器人做出道德风险评估,以保证人类生产出来的智能机器人能够融入人类社会现有的道德规范。⑦2016年6月,日本AI学会的伦理委员会发布人工智能研究人员应该遵守的伦理指标草案,以引导和规范研究人员正确处理人工智能进一步发展导致的伦理道德、安全问题。⑧美国的《国家人工智能研究和发展战略计划》全面搭建了美国推动人工智能研发的实施框架,并强调保障人工智能系统的友好性,推动人工智能系统的公平、透明与符合伦理。同时,确保人工智能系统的安全可靠,提高信任度、可验证和可确认性,并实现自我安全防御与优化。⑨

问题的关键不是人工智能需不需要治理的问题,而是人工智能究竟应该如何治理、治理什么的问题,人工智能本身的复杂性特征使得人工智能在治理机制设计和构建中遭遇多重难题。

首先是事前的风险识别和预防难题。不同于原子能、化工等研究开发的基础设施的大规模性、风险源的明确性,监管者或治理行为体能够非常容易地确定潜在的公共危险源的制造者和发生地。人工智能研发具有秘密性、分散性、不连续性及不透明性。秘密性是指人工智能的研究与开发只需要极少的可见设施;分散性是指研究人工智能系统不同组成部分的研发人员可能分布在不同的地方;不连续性是指人工智能的研发不需要所有的部件同时就位,也不需要不同部门的研究人员通力合作;不透明性,是指人工智能系统运行可能处在秘密状态,由于信息的严重不对称,外部人员很难发现人工智能系统中潜在的危险而无法采取针对性的监管措施。⑩人工智能这些特征,为其事前监管带来许多不便,也为有效的人工智能治理设计带来困惑,毕竟科学的风险识别和预防机制的构建是治理有效性的关键。

其次是风险发生的不可预知性难题。人工智能与其他传统科技最大的不同是可以独立完成预定任务的自主性,但是人工智能自主行为与人类的决策和行动存在根本的不同,尽管人工智能系统设计总是模仿人脑的工作方式。人类智能由于其在限定的时间里的计算速度有限,很难在穷举中得出最优解,而往往通过经验、直觉等方法得出自认为满意的答案,而非一个最佳的解决方法,经济学家Herbert Simon称之为“满意法”。⑪而人工智能通过合并算法和深度学习可以在极短的时间内精确计算所有的可能性,从而使得它们能够选择人类完全没有考虑过而“出人意料”的解决问题方法,做出的结论可能同人类的认知系统做出的决策产生极大的不同。一个能够自主学习的人工智能系统的行为部分依靠其后天的经历,即使是最细心的设计者、编程者以及制造者都没有办法控制或者预测人工智能系统在脱离他们之后将会经历些什么。⑫所以,人工智能的不可预知性,使得人工智能系统在做出难以预测的损害性行为时,让设计者承担责任可能会导致不公平和非正义。值得注意的是,对于产品生产者的严格责任,规定有“当前科学水平尚不能发现缺陷”的免责事由。但是这项免责事由在人工智能领域是否适用值得讨论。尽管在深度学习训练数据和学习过程存在不可预见性,但考虑到人工智能的算法完全由开发者编写,开发者对风险源头具有绝对的控制力,司法机关可能会推定开发者应当预见算法执行中的可能风险或要求开发者对风险程度的增加承担责任。

再次是事后责任认定和分配的难题。以规则为基础的治理是现代治理的根本特征,法律法规作为正式规则主体形式使得“法治”构成有效社会治理的核心,人工智能的治理难题集中表现为法律困惑和政策困境。一是人工智能的不可控性导致的监管两难。随着人工智能技术升级到强人工智能阶段,不可控性可能成为一个严峻的问题,未雨绸缪人工智能的局部失控乃至可能出现的全面失控是当代人的责任。从现在来讲,各国不会像用法律禁止克隆人一样规避人工智能风险,人们所焦虑的是如何在不束缚人工智能良性发展的前提下最大限度地防控人工智能风险。二是人工智能风险主体的多元性和不可预知性问题也导致了对其监管的法律困惑,由于参与人工智能系统部件的主体多元和不可预知,很难确定出责任主体。例如,人工智能系统的部件的制造者可能没有想到他们生产的部件被用在了人工智能系统上,如果造成了损害就更非他们的本意了。在这种情况下,将责任分配给人工智能系统某一部件的设计者,就显得非常的不公平,同样,人工智能系统运转的不透明让法院也不能轻易判断将人工智能系统造成第三人损害的责任归责于运营者还是使用者。三是人工智能法律主体的难题。人工智能的自主性随着人工智能技术进步进化到强人工智能阶段后,人工智能载体如机器人是不是人格意义的道德体、行为体乃至法律主体?由于机器可以像人类一样独立思考和决策,该阶段的人工智能如果和人类一样,成为独立的主体享有权利,并对自己的行为承担责任,传统法律体系将产生巨大的冲击。⑬

上一页 1 2345678下一页
[责任编辑:樊保玲]
标签: 人工智能   问题