网站首页 | 网站地图

大国新村
首页 > 人民智库 > 研究报告 > 正文

【研究报告】2020年度全球十大人工智能治理事件及变革趋势前瞻(2)

发展负责任的人工智能并非一国之责,而是全球之事;人工智能治理亟需建立国际共识,探索协同共治新模式

据有关机构预测,2030年,人工智能将带动全球GDP增长14%;其中,最大的收益将来自中国与北美,总计高达10.7万亿美元,占全球经济影响的近70%。如此巨大的经济体量,若失去法律、道德和伦理的约束,有可能造成不可逆转的负面影响。本次调查中,全球性、地区性及各国涉及法律、伦理、道德规范建设的事件得到了专家和公众的广泛关注,如“欧美、韩国相继出台AI治理新规,严格限制、甚至禁用相关人工智能技术在某些场景的发展和应用”(排名第4,得票率49.73%)等。此外,西方国家推动人工智能在军事领域的使用也受到广泛关注,“人工智能首次控制美国军用系统,或将开启算法战新时代”(排名第10,得票率48.22%)这一事件受到案例评审专家的多次提及。清华大学人工智能国际治理研究院名誉院长傅莹指出:“既然人工智能武器化不可避免,专家们研究的方向应是寻找合适的治理路径。”

上海交通大学文科资深教授、中国法与社会研究院季卫东院长认为,当今世界面临着围绕人工智能和数据的国际规则的博弈,中国在全球化时代和数字经济转型过程中相对处于比较领先的位置。但由于我们过去对人工智能治理重视程度不够,导致人工智能产品、产业在“走出去”的过程中,往往会在欧美国家遇到限制或指责,有些问题的确可以促进我国产品、技术、规范的进步,但我们也要学习适当地、巧妙地利用规则来维护国家和企业的合法权益。同时也要注意到不同国家人工智能治理模式的区别,比如美国强调人工智能企业的商业利益与企业在竞争中保持优势地位;欧盟则强调公民权利保障及在该前提下的规则博弈;中国在上述两个方面都有所涉及。

当前,我国正在积极融入人工智能全球治理体系,尽管偶有逆流和阻挠,但依然肩负起了一个负责任大国应肩负的责任,在人工智能全球治理中积极贡献自己的智慧和经验。目前的基本共识是人工智能的治理体系需要“柔性的伦理”和“硬性的法律”共同构建,更需要各个国家、国际组织、行业组织、企业、公众的多元主体参与,伦理、技术、规范、立法等治理举措齐头并进的协同共治模式。

从顶层设计方面实施国家规划并确定立法步骤。2017年,国家印发了《新一代人工智能发展规划》和《促进新一代人工智能产业发展三年行动计划(2018—2020年)》,其中对人工智能伦理道德、法律政策提出了明确要求。要秉持“一张蓝图绘到底”的精神,根据规划要求实施人工智能法律政策“三步走”:到2020年,部分领域的人工智能伦理规范和政策法规初步建立;到2025年,初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力:到2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。

积极从全球治理角度凝聚人工智能伦理共识。2019年5月《人工智能北京共识》发布,针对人工智能的研发、使用、治理三方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则。我国还鼓励不同层次主体围绕科技向善等核心伦理价值,拟定评价规则,构建人工智能的评估评价体系。一方面,引导人工智能健康持续发展,通过产业发展反哺人工智能治理领域法律法规等规则的建立健全;另一方面,借助人工智能等现代信息技术手段全面提升治理能力和治理现代化水平。2019年11月,《关于<中共中央关于坚持和完善中国特色社会主义制度推进国家治理体系和治理能力现代化若干重大问题的决定>的说明》中指出:更加重视运用人工智能、互联网、大数据等现代信息技术手段提升治理能力和治理现代化水平。

清华大学发布的相关领域研究报告显示,在人工智能领域,中国在科技产出与人才投入、产业发展和市场应用、发展战略和政策环境等方面表现亮眼,特别是论文总量和高被引论文数量、专利数量均排名世界第一,企业数量全球第二。2019年6月,《亚太及日本企业人工智能伦理道德研究》报告显示,中国企业在运用人工智能指导方针及管理标准方面位居亚洲前列。这些成绩的取得,与我国对人工智能“先行一步”的态度与积极主动地发展先进技术密不可分。

上一页 1 234下一页
[责任编辑:赵光菊]
标签: 人工智能   AI治理