网站首页 | 网站地图

大国新村
首页 > 人民智库 > 专家观点 > 正文

张钹:治理和发展相辅相成、共同前进

人工智能为什么要治理?主要原因在于人工智能技术非常容易被误用和滥用,而且会产生很严重的后果。为什么是这样呢?原因有三个:

第一,所有技术都存在的问题,就是技术的两面性。人工智能也不例外,人工智能既可以用来造福人类,也可以用来伤害人类。举一个简单的例子,语音和图像的合成,利用这两项技术可以合成跟人类一样惟妙惟肖的机器人,让它跟人类进行交互、进行聊天,达到很好的用户体验。但是同时也可以用这两项技术合成虚假的新闻、视频去欺骗公众,误导舆论,造成不良的社会影响。但是人工智能技术还有另外两点特殊的地方,导致说人工智能的治理问题更为严重,也更加重要。

第二,现在的人工智能技术非常脆弱。换句话讲它非常容易被攻击、被欺骗。

第三,数据安全问题。其实人工智能依赖大量的数据,确实数据可以帮我们很大的忙,但数据也存在大量需要解决的问题,比如隐私问题、知识产权问题、偏见问题、污染问题、存在错误等等,这些同样会造成很大的危险。

举一个非常简单的例子,我们用计算机去识别汽车,汽车后头有商标,正常情况都能识别。但我们只要在商标上加一点点噪声,这个噪声人用肉眼根本看不出来,但是就可以误导计算机“看不到”(识别不到)汽车,这就是新出现的“隐身术”,这个非常危险,我们通常用这种计算机视觉识别技术去监测车辆,人家只要在车上搞一点小的噪声图案就可以让计算机看不到它,这就是一个人工智能脆弱性的表现。

同样的,在视频监控场景里,如果我们用计算机来监测电网周遭环境的危险情况,我们只要在这个地方布置一点很简单的噪声干扰,就可以让计算机误认为这个地方有火情,或者真的发生了火情,我们也可以添加一点小的干扰进去让计算机认为没有火情。

文本也存在这种问题,比如对电影的评价,计算机辨别这是一个正面的评价,但只要把其中一个字改了,人看起来这只是一个简单的修改,但计算机就会错误辨别成负面评价。所以人工智能是非常脆弱、非常容易受攻击的,这也让人工智能使用起来更容易被误用或滥用。

那我们应该怎么来解决人工智能安全性的问题呢?我认为必须从两个方面下手,一个方面就是其他专家发言里谈的比较多的,去治理。但是我们不能用治理来限制人工智能的发展,唯一的办法还是在于发展,所以这就涉及到另外一个问题,我们该如何发展它?我们现在提出来第三代人工智能,是从理论上解决人工智能的可解释和鲁棒性的问题,在这个基础上发展安全、可靠、可信、可扩展的人工智能技术,这是发展的一个方向。

我们做了两项工作,一项工作是已经发布的一个计算平台-OneFlow,现在市面上主流的框架平台,就是TensorFlow和PyTorch,OneFlow的可解释性比别的好,有很多优点,现在已经把应用在交通、医疗、智能制造等很多领域。

最近我们又发布了两个产品,一个叫RealSecure,主要做隐私保护,如何安全地利用数据,数据里面有隐私信息,如何从计算层面进行保护,实现可追溯,前面也有人提到了,如何保持可追溯,如何让有偏见的数据清除掉,这是我们在这个方面做的一款产品。另外一个产品是RealSafe2.0,可以抵御攻击。

从这里可以看出来治理和发展的一个关系,一方面根据现阶段人工智能的发展状况,应该提出来一系列治理的政策、方针,但随着技术的发展,治理的方式应该与时俱进,两者结合起来。这是一个长期任务,因为我们不可能发展出来一个绝对安全的人工智能算法,整个是在发展过程中间,我们认为要跟治理两者相辅相成,共同前进。

最后,我们希望跟大家一起分享我们的研究成果,全世界团结起来共同发展安全、可靠、可信、可拓展的第三代人工智能技术,让人工智能更加安全,谢谢大家!

(作者为中国科学院院士、清华大学人工智能研究院名誉院长,本文根据作者在首届“清华大学人工智能合作与治理国际论坛”上的发言整理)

[责任编辑:赵光菊]
标签: 人工智能   数据安全