网站首页 | 网站地图

大国新村
首页 > 学术前沿 > 成果首发 > 正文

关于人工智能治理问题的若干思考(2)

库兹韦尔认为,人工智能可以全面超越人类智能,而且超越的速度远超过人们的预期。他认为,2045年是“奇点”到达的时期,这将是极具深刻性和分裂性的时间点,非生物智能在这一年将会10亿倍于今天所有人类的智慧。④当然,大多数科学家和人工智能专家对人工智能全面超越人类持否定态度,认为这是杞人忧天式的臆想,对人工智能征服人类的担心就像担心火星上塞车一样。航天器发明之前,其可能坠毁的风险担忧并没有阻止航空航天事业的发展。从这一点说,我们几乎没有可能阻止人工智能的快速发展,但从现在起,给予人工智能更多的人文关注、价值判断和理性思考,是一种比较正确的态度。事实上,人文社会科学的发展应该走在自然科学的前面,在人工智能安全问题之前做好充分的理论准备。

第二类问题是人工智能可能引发的安全问题。其一是操作权失控或恶意使用导致的安全威胁。人工智能对人类的利害作用取决于掌控和使用人工智能的人。例如,黑客可能通过智能方法发起网络攻击,还可利用人工智能技术非法窃取私人信息。其二是技术失控或管理不当所致的安全问题。某些技术缺陷也会导致人工智能系统出现安全隐患,比如深度学习采用的黑箱模式会使模型可解释性不强,机器人、无人智能系统的设计、生产不当会导致运行异常等。

第三类是人工智能伦理规范的挑战。伦理问题是人工智能技术应用值得关注的问题。如人工智能的行为规则问题,人工智能技术的应用正在将一些生活中的伦理性问题在系统中规则化。系统的研发设计必须要与社会伦理匹配对接,机器规范和人类规范必须兼容,从而导致社会损害。再如机器人的“人格”和权力问题。目前在司法、医疗、指挥等领域正在发挥作用,不远的将来,人工智能在审判分析、疾病诊断上将替代人类。但是,在给机器授予决策权后,人们不仅要考虑人工智能的安全风险,而且还要面临一个新的伦理问题,即机器独立行使专业决策的资格。有伦理学家认为,未来机器人不仅有感知、认知和决策能力,人工智能在不同环境中学习和演化,还会形成不同的个性。所以机器人使用者需要承担类似监护人一样的道德责任甚至法律责任,以免对社会文明产生不良影响。⑤

第四类问题是人工智能可能引发的隐私问题。大数据驱动模式主导了近年来人工智能的发展,隐私问题是数据资源开发利用中的主要威胁之一,人工智能应用中必然存在隐私侵犯风险。比如数据采集中的隐私侵犯。随着各类数据采集设施的广泛使用,智能系统掌握了个人的大量信息,如果出于商业目的非法使用某些私人信息,就会造成隐私侵犯。再如云计算中的隐私风险。因为云计算技术使用便捷、成本低廉,许多用户开始将数据存储至云端。将隐私信息存储至云端后,这些信息就容易遭到各种威胁和攻击。目前在许多人工智能应用中,云计算已经被配置为主要架构,因此云端隐私保护是需要考虑的问题。还有知识抽取中的隐私问题。由数据到知识的抽取是人工智能的重要能力,知识抽取工具正在变得越来越强大,无数个看似不相关的数据片段可能被整合在一起,识别出个人行为特征甚至性格特征。但是,这些个性化定制过程又伴随着对个人隐私的发现和曝光,如何规范隐私保护是需要与技术应用同步考虑的一个问题。⑥

上一页 1 2345678下一页
[责任编辑:樊保玲]
标签: 人工智能   问题