人工智能有很多根安全软肋,应建国家级网络安全平台
发布时间: 2019-03-08 13:53
3月5日,全国政协委员、360集团董事长兼CEO周鸿祎公布了他今年的三份“两会”提案,涉及国家级网络安全大脑建设、智能汽车网络安全、人工智能安全风险等安全热点话题。
建设国家级网络安全大脑的提案中,周鸿祎建议:将国家级网络安全大脑列为国家重大工程专项。建议成立国家网络安全大脑项目总体工作组、专家组、工程推进组,分别负责顶层设计和总体筹划、系统设计、工程建设。运用新型举国体制,加快推进国家级网络安全大脑建设。由国家相关部门牵头,协调网信、工信、公安、科技等部门和单位,组织国企、民企、科研院所等广泛参与。
周鸿祎称:做了十来年的网络安全,感觉我们的网络安全防御有一个很大的问题,就是各个单位基本上各自为战,各守自己的“一亩三分地”、“自扫门前雪”,大家都只掌握自己的局部信息,无法及时发现高级攻击。
他认为,面对这些威胁和挑战,当务之急是能够及时发现网络攻击,唯一的方法要靠安全大数据的联合。构建一个数据统一、国家级的网络空间国土防御系统——国家级网络安全大脑,在全球网络安全形势严峻的今天尤为重要。
在智能汽车网络安全的提案中,周鸿祎建议:制定强制性生产标准,把网络安全列为智能汽车标配,一是加装安全联网模块,提高联网防护能力,建立安全接口,加强汽车的控制安全保护,防止控制被劫持。二是强制安全测试。建立测试评价体系,在汽车上市前进行网络安全测评。三是建立厂商安全运营平台,提升安全运营能力,及时发现和阻断黑客攻击。
“我们的目标是让智能汽车不‘裸奔’。今天大家的电脑谁也不敢裸奔,手机里也装了安全杀毒软件,智能汽车也应加装网络安全防护系统。我们要把网络安全系统像‘安全带’一样列为智能汽车标配,做到智能汽车的安全、可靠、可控。” 他说。
周鸿祎判断,未来汽车发展将智能化、网联化、电动化和共享化,其电子电气架构会发生翻天覆地的变化。汽车的智能驾驶系统、信息娱乐系统、底盘控制系统和动力控制系统都会与互联网联接,通过网络进行数据传输和软件升级。与互联网连接就会有网络安全风险,黑客可以通过网络攻击劫持汽车,造成人身伤害、群死群伤等安全事故,甚至被用于恐怖袭击,威胁人身安全、社会安全和国家安全。
关于人工智能安全风险的提案中,周鸿祎建议:安全应该成为人工智能发展的基础与前提。但是,人工智能网络安全问题非常复杂,迫切需要建立一个开放创新平台,整合各种资源,协同推进和解决。国家对新一代人工智能开放创新平台的建设高度重视。已分别在自动驾驶、城市大脑、医疗影像、智能语音、智能视觉5大领域批准建设人工智能开放创新平台,但在人工智能网络安全领域还是空白。建议国家支持尽快建设国家级网络安全人工智能开放创新平台,确保人工智能健康有序发展。
“现阶段,我们关注的焦点是人工智能本身的安全问题。人工智能有很多根安全‘软肋’,前端传感器可以被干扰,训练数据可能被污染,内部算法可以被欺骗,并且系统中可能存在大量未知漏洞。人工智能无疑是下一轮技术革命的焦点,在技术高速发展的同时,如何保持这个技术更安全是重中之重。”周鸿祎表示。
周鸿祎表示,人工智能正在加速与经济、社会、国防等深度融合,发挥越来越显著的“头雁”效应。但与此同时,人工智能自身所面临的网络安全风险也越来越突出。“比如,人工智能的传感器存在被干扰的风险;训练数据存在被污染的风险,可能“教坏”智能机器人;概率判断系统不完善,可能导致车毁人亡;而且,人工智能是通过软件实现的,是软件就有漏洞,就很可能被黑客利用。”
“由此可知,如果人工智能自身存在安全问题,就易受攻击并引发严重后果。一方面,人工智能系统可被劫持,造成大量重要训练数据泄露。另一方面,采用人工智能的无人值守系统失控,或导致严重后果。举个例子,现在武器系统的扳机都在战士手里,由人来判断和扣动扳机,未来如果引入人工智能形成智能武器系统,就变成了扳机在电脑系统手里,一旦被黑客控制,就可以远程控制武器射击,滥杀无辜。”他说。
建设国家级网络安全大脑的提案中,周鸿祎建议:将国家级网络安全大脑列为国家重大工程专项。建议成立国家网络安全大脑项目总体工作组、专家组、工程推进组,分别负责顶层设计和总体筹划、系统设计、工程建设。运用新型举国体制,加快推进国家级网络安全大脑建设。由国家相关部门牵头,协调网信、工信、公安、科技等部门和单位,组织国企、民企、科研院所等广泛参与。
周鸿祎称:做了十来年的网络安全,感觉我们的网络安全防御有一个很大的问题,就是各个单位基本上各自为战,各守自己的“一亩三分地”、“自扫门前雪”,大家都只掌握自己的局部信息,无法及时发现高级攻击。
他认为,面对这些威胁和挑战,当务之急是能够及时发现网络攻击,唯一的方法要靠安全大数据的联合。构建一个数据统一、国家级的网络空间国土防御系统——国家级网络安全大脑,在全球网络安全形势严峻的今天尤为重要。
在智能汽车网络安全的提案中,周鸿祎建议:制定强制性生产标准,把网络安全列为智能汽车标配,一是加装安全联网模块,提高联网防护能力,建立安全接口,加强汽车的控制安全保护,防止控制被劫持。二是强制安全测试。建立测试评价体系,在汽车上市前进行网络安全测评。三是建立厂商安全运营平台,提升安全运营能力,及时发现和阻断黑客攻击。
“我们的目标是让智能汽车不‘裸奔’。今天大家的电脑谁也不敢裸奔,手机里也装了安全杀毒软件,智能汽车也应加装网络安全防护系统。我们要把网络安全系统像‘安全带’一样列为智能汽车标配,做到智能汽车的安全、可靠、可控。” 他说。
周鸿祎判断,未来汽车发展将智能化、网联化、电动化和共享化,其电子电气架构会发生翻天覆地的变化。汽车的智能驾驶系统、信息娱乐系统、底盘控制系统和动力控制系统都会与互联网联接,通过网络进行数据传输和软件升级。与互联网连接就会有网络安全风险,黑客可以通过网络攻击劫持汽车,造成人身伤害、群死群伤等安全事故,甚至被用于恐怖袭击,威胁人身安全、社会安全和国家安全。
关于人工智能安全风险的提案中,周鸿祎建议:安全应该成为人工智能发展的基础与前提。但是,人工智能网络安全问题非常复杂,迫切需要建立一个开放创新平台,整合各种资源,协同推进和解决。国家对新一代人工智能开放创新平台的建设高度重视。已分别在自动驾驶、城市大脑、医疗影像、智能语音、智能视觉5大领域批准建设人工智能开放创新平台,但在人工智能网络安全领域还是空白。建议国家支持尽快建设国家级网络安全人工智能开放创新平台,确保人工智能健康有序发展。
“现阶段,我们关注的焦点是人工智能本身的安全问题。人工智能有很多根安全‘软肋’,前端传感器可以被干扰,训练数据可能被污染,内部算法可以被欺骗,并且系统中可能存在大量未知漏洞。人工智能无疑是下一轮技术革命的焦点,在技术高速发展的同时,如何保持这个技术更安全是重中之重。”周鸿祎表示。
周鸿祎表示,人工智能正在加速与经济、社会、国防等深度融合,发挥越来越显著的“头雁”效应。但与此同时,人工智能自身所面临的网络安全风险也越来越突出。“比如,人工智能的传感器存在被干扰的风险;训练数据存在被污染的风险,可能“教坏”智能机器人;概率判断系统不完善,可能导致车毁人亡;而且,人工智能是通过软件实现的,是软件就有漏洞,就很可能被黑客利用。”
“由此可知,如果人工智能自身存在安全问题,就易受攻击并引发严重后果。一方面,人工智能系统可被劫持,造成大量重要训练数据泄露。另一方面,采用人工智能的无人值守系统失控,或导致严重后果。举个例子,现在武器系统的扳机都在战士手里,由人来判断和扣动扳机,未来如果引入人工智能形成智能武器系统,就变成了扳机在电脑系统手里,一旦被黑客控制,就可以远程控制武器射击,滥杀无辜。”他说。
推荐资讯
相关新闻
最新信息
赞助商广告位