张钹院士:解决AI安全问题,把知识驱动和数据驱动结合起来

在信息产业发展与技术发展过程中,过往的安全性问题主要来自于大型软件设计的一个漏洞或者缺陷,或者这个缺陷的造成往往被利用了,对系统进行攻击产生一些安全问题。这个是相对来说容易克服的,一旦发现漏洞后,把漏洞补上即可解决。
而发展到人工智能技术时则出现一个全新的安全问题,其不是来自于设计时有漏洞,而是来源于算法本身的不安全性。这个问题是非常难以解决的,必须对算法本身做一个彻底的改变。
8月3日,中国科学院院士、清华大学人工智能研究院名誉院长张钹在RealAI主办的人工智能产业治理论坛上作了《人工智能产业治理与创新发展》的报告,提出发展第三代人工智能的思路,以及如何通过技术创新,解决人工智能算法的不安全性问题。
张钹表示,对人工智能的治理有两个含义:一是防止人工智能技术被误用,就是无意识的误用,因为人工智能算法本身带来不安全问题,是很难被预先发现。所以,有时候在使用过程中间会出现很多错误,如果我们在使用的过程中不注意到这个问题会产生无意识地错用,造成严重后果。第二类问题是有意识(故意)地滥用人工智能技术,就是利用人工智能算法的不安全性,去造成对人工智能系统的恶意攻击或者滥用,这个必须要通过法律法规来解决,加以制止。
张钹此次演讲主要聚焦于算法本身的不安全性问题,以及解决之道。
图文推荐