张钹院士:解决AI安全问题,把知识驱动和数据驱动结合起来
时间:2021-08-10 13:41:28来源:卡卡手游网作者:佚名我要评论 用手机看
扫描二维码随身看资讯
使用手机 二维码应用 扫描右侧二维码,您可以
1. 在手机上细细品读~
2. 分享给您的微信好友或朋友圈~
在信息产业发展与技术发展过程中,过往的安全性问题主要来自于大型软件设计的一个漏洞或者缺陷,或者这个缺陷的造成往往被利用了,对系统进行攻击产生一些安全问题。这个是相对来说容易克服的,一旦发现漏洞后,把漏洞补上即可解决。
而发展到人工智能技术时则出现一个全新的安全问题,其不是来自于设计时有漏洞,而是来源于算法本身的不安全性。这个问题是非常难以解决的,必须对算法本身做一个彻底的改变。
8月3日,中国科学院院士、清华大学人工智能研究院名誉院长张钹在RealAI主办的人工智能产业治理论坛上作了《人工智能产业治理与创新发展》的报告,提出发展第三代人工智能的思路,以及如何通过技术创新,解决人工智能算法的不安全性问题。
张钹表示,对人工智能的治理有两个含义:一是防止人工智能技术被误用,就是无意识的误用,因为人工智能算法本身带来不安全问题,是很难被预先发现。所以,有时候在使用过程中间会出现很多错误,如果我们在使用的过程中不注意到这个问题会产生无意识地错用,造成严重后果。第二类问题是有意识(故意)地滥用人工智能技术,就是利用人工智能算法的不安全性,去造成对人工智能系统的恶意攻击或者滥用,这个必须要通过法律法规来解决,加以制止。
张钹此次演讲主要聚焦于算法本身的不安全性问题,以及解决之道。
而发展到人工智能技术时则出现一个全新的安全问题,其不是来自于设计时有漏洞,而是来源于算法本身的不安全性。这个问题是非常难以解决的,必须对算法本身做一个彻底的改变。
8月3日,中国科学院院士、清华大学人工智能研究院名誉院长张钹在RealAI主办的人工智能产业治理论坛上作了《人工智能产业治理与创新发展》的报告,提出发展第三代人工智能的思路,以及如何通过技术创新,解决人工智能算法的不安全性问题。
张钹表示,对人工智能的治理有两个含义:一是防止人工智能技术被误用,就是无意识的误用,因为人工智能算法本身带来不安全问题,是很难被预先发现。所以,有时候在使用过程中间会出现很多错误,如果我们在使用的过程中不注意到这个问题会产生无意识地错用,造成严重后果。第二类问题是有意识(故意)地滥用人工智能技术,就是利用人工智能算法的不安全性,去造成对人工智能系统的恶意攻击或者滥用,这个必须要通过法律法规来解决,加以制止。
张钹此次演讲主要聚焦于算法本身的不安全性问题,以及解决之道。
热门文章
图文推荐
-
中国科学家提出一种新型固态原子钟方案,更适于实际应用
根据中国科学技术大学官网近日消息,杜江峰、石发展等人在固态体系
-
20余科学家发文称新冠病毒不可能是人为制造,专访第一作者
新冠病毒来源于哪里,是自然产生还是人为制造? 这是事关全球抗疫大
-
科技部等多部门:支持女性科技人才在科技创新中发挥更大作用
科技部网站7月19日消息,科技部等十三部门印发《关于支持女性科技
-
美国学者:现代人仅7%基因组不同于其他早期人类
究竟什么让智人与众不同,进化成为如今的现代人?美国一项研究显示,答