想要保护人脸信息?我推荐“反面部识别技术”
发布时间: 2019-08-30 15:00
从移动支付到手机解锁,从交通出行到旅游检票,从门禁打卡到关卡安防,从银行办理到政务协助......如今,凭借着便捷、安全、简单等优势,以人脸、指纹、语音等生物信息为基础的识别技术,已经越来越多的出现在我们生活之中。它们通过对传统密保方式的取代,不仅给人们的生活带来了更多安全保障,同时也进一步推动了人们对便捷、智能生活的体验。
而在众多生物识别技术之中,人脸识别无疑当前是应用广且火热的一项技术。其在各行业领域的落地应用,快速开启了人们“刷脸”的时代。相比传统密保技术和其他识别技术,人脸识别具有方便、高效、避免接触等多种优点,因此经常能在安防、刑侦等特殊领域做出贡献。
比如今年以来,我们时常能看到人脸识别技术在明星演唱会上协助警察抓捕逃犯,以及前段时间贷款平台工作人员通过人脸识别发现凶杀案真相等等。人脸识别的非接触识别和广范围精准识别,给警察办案带来了更多证据和资料,通过拓展刑侦办案的能力和效率,大大保障了社会的稳定与和谐。
u=2720663792,246429698&fm=26&gp=0.jpg
想要保护人脸信息?我推荐“反面部识别技术”
不过,通过上述这些事件,人们在看到人脸识别给国家维稳带来的巨大帮助时,同时也感受到了隐私信息遭暴露、时刻被监视的担忧与恐惧。出于该原因,美国一些城市甚至已经明令禁用人脸识别,但这样的办法终究不可取。那么除了弃用之外,还有什么办法能够对抗人脸识别技术,保护人们的个人隐私呢?
反面部识别眼镜
2016年11月,卡内基梅隆大学研究人员开出了一种反面部识别眼镜,该种眼镜可以让摄像头前的人显示成为另一个人,在对商用级别面不是软件的测试中,其误认人脸的成功率为100%。
据悉,其原理是眼镜的花纹采用了“摄动”图案,该种图案能够通过小到像素级别的图案欺骗识别系统。研究人员表示,这是利用了AI深度神经网络的缺陷,对AI进行的有效欺骗。
而这样一副眼镜造价只需要0.22美元,用光滑的照片纸就能够打印,十分的廉价和易制。
ETO算法
2017年,麻省理工和日本九州大学的研究人员创建了一种叫ETO的算法,该算法能够成功骗过谷歌AI系统,让系统将一幅3D打印的海龟照片识别为步枪,同时将3D棒球认成浓缩咖啡。
这种算法的具体用法是:研究人员用算法生成“对抗性”图像,之后将图像附加到3D打印的模型上,将这些模型拿去谷歌的图像分类AI识别,便能起到很好的欺骗和误导效果。换句话说,只要将算法生成的图像附加到人脸之上,也应该能够产生欺骗人脸识别系统的效果。
而类似的做法在俄罗斯便出现过,一家公司科技公司的技术总监和几名黑客一起,开发出过“反面部识别算法”,这种算法的实现方式是,便是以化妆的方式在脸上画出特定的线条,以此干扰面部识别技术。
“隐私滤镜”
2018年,多伦多大学Parham Aarabi教授和研究生Avishek Bose的团队开发了一种算法,可以动态地破坏人脸识别系统。他们的解决方案利用了一种叫做对抗训练的深度学习技术,这种技术让两种人工智能算法相互对抗。
研究人员表示,在图像识别领域,在图像中添加小的、往往不可察觉的干扰就可以欺骗一个典型的分类网络,使其将图像错误地分类。这种被干扰的图像被称为对抗样本,它们可以被用来对网络进行对抗攻击。
利用这一特点,研究人员开发了一种“隐私滤镜”,可以干扰人脸识别算法。该系统依赖于2种AI算法:一种执行连续的人脸检测,另一种设计来破坏前者。
脑门贴纸
今年,来自莫斯科国立大学和华为莫斯科研究院的科学家们研发出了一种特殊的纸符,符上有特殊纹路,可以迷惑AI。
据悉,该研究团队想了一种方法,在纸片上生成了一种对抗攻击图像,让其不再是一张平面的纸了,而是三维立体,能直接干扰和欺骗AI的纸。人们将该纸贴在脑门上,人脸识别系统便再也识别不出你的真正样子了。
小结:
综上我们看到,对于人们隐私的保护和人脸识别技术的对抗,我们完全可以从技术角度来解决。而在技术上,大家普遍采取的方法比较一致,都是利用AI系统的神经网络漏洞,设计算法对其进行对抗攻击,从而起到干扰、误导和欺骗识别系统的效果。
不过,这种尝试也进一步说明了人脸识别技术当前并不完善,仍然有很多被利用和攻击的地方,现在我们可以利用漏洞保护人们隐私,不法分子也可以利用漏洞窃取隐私。因此未来,或许推动技术的成熟发展,才是保护人们隐私安全的真正良策。
而在众多生物识别技术之中,人脸识别无疑当前是应用广且火热的一项技术。其在各行业领域的落地应用,快速开启了人们“刷脸”的时代。相比传统密保技术和其他识别技术,人脸识别具有方便、高效、避免接触等多种优点,因此经常能在安防、刑侦等特殊领域做出贡献。
比如今年以来,我们时常能看到人脸识别技术在明星演唱会上协助警察抓捕逃犯,以及前段时间贷款平台工作人员通过人脸识别发现凶杀案真相等等。人脸识别的非接触识别和广范围精准识别,给警察办案带来了更多证据和资料,通过拓展刑侦办案的能力和效率,大大保障了社会的稳定与和谐。
u=2720663792,246429698&fm=26&gp=0.jpg
想要保护人脸信息?我推荐“反面部识别技术”
不过,通过上述这些事件,人们在看到人脸识别给国家维稳带来的巨大帮助时,同时也感受到了隐私信息遭暴露、时刻被监视的担忧与恐惧。出于该原因,美国一些城市甚至已经明令禁用人脸识别,但这样的办法终究不可取。那么除了弃用之外,还有什么办法能够对抗人脸识别技术,保护人们的个人隐私呢?
反面部识别眼镜
2016年11月,卡内基梅隆大学研究人员开出了一种反面部识别眼镜,该种眼镜可以让摄像头前的人显示成为另一个人,在对商用级别面不是软件的测试中,其误认人脸的成功率为100%。
据悉,其原理是眼镜的花纹采用了“摄动”图案,该种图案能够通过小到像素级别的图案欺骗识别系统。研究人员表示,这是利用了AI深度神经网络的缺陷,对AI进行的有效欺骗。
而这样一副眼镜造价只需要0.22美元,用光滑的照片纸就能够打印,十分的廉价和易制。
ETO算法
2017年,麻省理工和日本九州大学的研究人员创建了一种叫ETO的算法,该算法能够成功骗过谷歌AI系统,让系统将一幅3D打印的海龟照片识别为步枪,同时将3D棒球认成浓缩咖啡。
这种算法的具体用法是:研究人员用算法生成“对抗性”图像,之后将图像附加到3D打印的模型上,将这些模型拿去谷歌的图像分类AI识别,便能起到很好的欺骗和误导效果。换句话说,只要将算法生成的图像附加到人脸之上,也应该能够产生欺骗人脸识别系统的效果。
而类似的做法在俄罗斯便出现过,一家公司科技公司的技术总监和几名黑客一起,开发出过“反面部识别算法”,这种算法的实现方式是,便是以化妆的方式在脸上画出特定的线条,以此干扰面部识别技术。
“隐私滤镜”
2018年,多伦多大学Parham Aarabi教授和研究生Avishek Bose的团队开发了一种算法,可以动态地破坏人脸识别系统。他们的解决方案利用了一种叫做对抗训练的深度学习技术,这种技术让两种人工智能算法相互对抗。
研究人员表示,在图像识别领域,在图像中添加小的、往往不可察觉的干扰就可以欺骗一个典型的分类网络,使其将图像错误地分类。这种被干扰的图像被称为对抗样本,它们可以被用来对网络进行对抗攻击。
利用这一特点,研究人员开发了一种“隐私滤镜”,可以干扰人脸识别算法。该系统依赖于2种AI算法:一种执行连续的人脸检测,另一种设计来破坏前者。
脑门贴纸
今年,来自莫斯科国立大学和华为莫斯科研究院的科学家们研发出了一种特殊的纸符,符上有特殊纹路,可以迷惑AI。
据悉,该研究团队想了一种方法,在纸片上生成了一种对抗攻击图像,让其不再是一张平面的纸了,而是三维立体,能直接干扰和欺骗AI的纸。人们将该纸贴在脑门上,人脸识别系统便再也识别不出你的真正样子了。
小结:
综上我们看到,对于人们隐私的保护和人脸识别技术的对抗,我们完全可以从技术角度来解决。而在技术上,大家普遍采取的方法比较一致,都是利用AI系统的神经网络漏洞,设计算法对其进行对抗攻击,从而起到干扰、误导和欺骗识别系统的效果。
不过,这种尝试也进一步说明了人脸识别技术当前并不完善,仍然有很多被利用和攻击的地方,现在我们可以利用漏洞保护人们隐私,不法分子也可以利用漏洞窃取隐私。因此未来,或许推动技术的成熟发展,才是保护人们隐私安全的真正良策。
推荐资讯
相关新闻
最新信息
赞助商广告位