人脸识别被滥用,三人成虎不足挂齿?

[摘要]“刷脸”进站、“刷脸”支付、“刷脸”签到、“刷脸”进宾馆和办公室、“刷脸”执法……在中国,现在人脸识别技术正走进更为广阔的应用场景

本文作者│刘学习Fiyinghare

近日,支付宝、银联、微信国内三大支付巨头都推出了“刷脸”支付,抢滩“刷脸”支付新市场。

“刷脸”进站、“刷脸”支付、“刷脸”签到、“刷脸”进宾馆和办公室、“刷脸”执法……在中国,现在人脸识别技术正走进更为广阔的应用场景,因为被认为是高科技,其应用的场景之多,普及的速度之快,比以为任何时候都有过之而不及。

与指纹、虹膜、声纹等相比,人脸是一个具有弱隐私性的生物特征,因此,这一技术对于公民隐私保护造成的威胁性尤其值得重视。今年造型时候《经济学人》的文章就指出的:能够低成本、快速和大规模地记录、存储和分析人脸图像的能力,早晚会使隐私、公平和信任等观念发生根本性的改变。

微软公司高官多次呼吁政府对面部识别技术进行监管,认为可能存在滥用。微软建议各国政府出台针对面部识别技术的监管条例,对这一技术的准确性有独立评价标准,并禁止在法院许可的范围外对特定对象进行持续监控。

人脸识别被滥用,三人成虎不足挂齿?

 

在人工智能技术大行其道,并被各国政府大力支持的情况下,人工智能技术特别是人脸识别技术被滥用的呼声能受到重视吗?现阶段面部识别技术正在迅速被采用,所引发的潜在的技术滥用担忧是三人成虎,还是不得不面对的事实?

应用上的风险,让”你就是你”被攻陷

在应用方面,人脸识别主要有两个方向:

一种为1:1认证,即证明本人与证件信息是统一的,主要应用于安检、支付等需要实名制验证的场景。

另一种为1:N认证,判断某个体是否为特定群体中的一员,用于人员出入管理和城市安防,包括公安抓捕逃犯、打拐、曝光闯红灯者等。由于1:N认证目前还不算特别成熟,往往需要人的参与和干预。

在第一种应用场景下,绝对的安全已经不存在了,发货的作用也大不如以前。

央视3·15晚会上,主持人使用视频模拟的方式破解了人脸识别,让人们一度陷入刷脸并不安全的恐慌中;最近影响力极大的空姐打顺风车遇害事件,也暴露出黑车司机跑“滴滴”,早已用软件破解人脸识别技术的事实;以及不法分子利用FaceTime录制用户脸部视频,借以通过某些支付APP的“人脸识别”验证,盗取用户的支付账户的财产的新闻屡见不鲜……一例例已发生的安全事故表明:人脸识别技术存在很大的漏洞。

专家表示,一般的APP开发者不会自己开发人脸识别技术,而是通过第三方的API接口或SDK组件来获得人脸识别功能,基于这个特点,他对人脸识别技术从接入到实际使用过程中的每个关键点进行分析,最终在多个环节都找到了多个突破点,进而让人脸识别形同虚设。

另外,除了人脸识别技术在手机上本身的应用缺陷之外,许多问题导致的原因都是开发者在调用第三方的人脸识别服务时,没有一个严格安全的行为规范,接入流程不够严谨,甚至经常出现为了提高用户体验而舍弃安全性的做法,这样的做法在技术实力不强的小公司十分常见,最终导致的结果就是,让用户把密码写在了自己的脸上。

人脸识别被滥用,三人成虎不足挂齿?

 

在去年的FIT 2017互联网安全创新大会上,平安科技的安全研究员高小厨(高亭宇)在现场演示了注入应用绕过活体检测、视频攻击绕过活体检测、三维建模绕过云端检测、脸部3D模具绕过云端检测、利用接口防护不当和各种设计缺陷5种不同的可以破解人脸识别的方法。

在去年GeekPwn2017国际安全极客大赛上,毕业于浙江大学计算机专业的90后女选手“tyy”仅用时两分半钟就破解了人脸识别门禁系统,同样引起了广泛关注。她通过Wifi进入门禁系统,利用系统漏洞直接获取控制权限、修改人脸信息,把设备中存储的评委人脸换成了自己的脸,这也意味着可以用任意人脸来“蒙骗”人脸识别系统,打开门禁。

更多的只是把“人脸识别”当成一项新的噱头,尝试吸引着大众的关注。

是数据就有被利用进而侵犯隐私

专家认为:“人脸图像或视频广义上讲也是数据,如果没有妥善保管和合理使用,就会容易侵犯用户的隐私。”。

通过数据采集和机器学习来对用户的特征、偏好等“画像”,互联网服务商进而提供一些个性化的服务和推荐等,从正面看是有利于供需双方的一种互动。但对于消费者来说,这种交换是不对等的。就频频发生的个人数据侵权的事件来看,个人数据权利与机构数据权力的对比已经失衡,在对数据的收集和使用方面,消费者是被动的,企业和机构是主动的。段伟文表示,“数据实际上成为被企业垄断的资源,又是驱动经济的要素。”如果商家只从自身利益出发,就难免会对个人数据过度使用或者不恰当披露。

“大数据时代,个人在互联网上的任何行为都会变成数据被沉淀下来,而这些数据的汇集都可能最终导致个人隐私的泄露。”湖南师范大学人工智能道德决策研究所所长李伦认为,用户已经成为被观察、分析和监测的对象。

除了人脸识别技术容易导致隐私泄露问题外,人脸识别技术公司对大量用户的脸部信息进行征集调用,其行为本身就足以令人担忧。

基于深度学习的人脸识别技术,需要把一定规模的训练数据“喂”给机器,提升它深度学习的能力,才能保证人脸识别技术在实际应用场景中达到预期的效果。因此,为了提高算法的准确性,大量的数据积累必不可少。

此前,作为美图秀秀的合作方,Face++已经识别了超过10亿张照片,现在还建立了数亿张照片的名人图片库。尽管Face++表示在采集到照片后会对照片进行脱敏处理,只提取照片特征,而非照片本身,即使这些特征在传输过程中被窃取,也无法还原出照片,但是未经用户允许调用照片,本身就是一种对隐私的侵犯。而Facebook的面部图像库虽然不会被其他人提取,但是,举个例子,该公司可以获得参加车展的人的照片,之后用人脸识别技术在网上找到这些人,给他们精准地发送汽车广告。

人脸和其他生物特征数据,如指纹,之间间的一个巨大区别是,它们可以远距离起作用。智能硬件、摄像头随时随地采集我们的个人影像资料,长时间大规模地积累用户数据,必然涉及个人数据与隐私保护的问题。不管出于法律还是情理,每个人对于自己的照片、形象,应该有最起码的知情权。企业、政府不顾及用户个人意志,擅自采集调用脸部特征信息,本身就是一种侵权行为。

为此,也有很多人开始研究反人脸识别技术。俄罗斯最大的科技公司Yandex的技术总监Grigory Bakunov去年公开表示自己已经在网络上和其他几个黑客一起,开发出了一种“反面部识别算法”。 这种算法的实现方式是,以化妆的方式在脸上画出特定的线条,以此干扰面部识别技术。Grigory Bakunov号称这项技术非常有效,对于男女都适用。但为了避免技术被滥用,他并没有公开反人脸识别系统的详细算法和原理。

日本国立情报学研究所也曾经发明高科技眼镜Privacy Visor,利用红外发生技术,使摄像头的面部识别系统无法检测到人的面部特征。眼镜架上的红外发生器能影响绝大多数的智能手机和平板电脑,这样拍出的照片在人眼看起来和普通照片没有差别,却无法识别面部信息。

人们或许是出于被无时无刻“监视”的反感、或因企图寻找人脸识别的漏洞而设计出反人脸识别方案,但很明显这些技术不适合商业化,不然让脸部识别在安防中的作用适得其反。

人脸识别技术所引发的道德问题

人脸识别技术还带来了不容忽视的道德伦理问题。譬如,斯坦福大学的研究人员证明,当展示一名同性恋男和一名异性恋男的照片时,算法能够具有81%的准确率分辨出他们的性倾向,相比较人类只能识别61%。在那些将同性恋被视为犯罪的国家里,一款能够从面部推断出性倾向的软件,会让人感到恐慌。

而且,暴力程度较低的歧视将会更加普遍。比如雇主本就可以按照自己的偏见拒绝某人,但人脸识别可以让这种偏见变得常态化,使得公司根据种族、智力和性取向等特征过滤所有的求职者。

以及,持续的面部记录,以及能够将计算机化的数据绘制到现实图像上的电子设备,或许会改变社交互动模式,让人不自觉隐藏面部表情,企图不暴露内心活动,人际关系变得更理性也更功利。此番景象,让人不自觉联想起小说《1984》中所描述的自由被彻底剥夺,思想受到严酷钳制的令人窒息的恐怖社会。




版权声明:

凡本网注明”来源:中国软件网(http://www.soft6.com)”的所有作品,版权均属于中国软件网或昆仑海比(北京)信息技术有限公司,未经本网书面授权,不得转载、摘编或以其它方式使用上述作品。

任何行业、传播媒体转载、摘编中国软件网(http://www.soft6.com)刊登、发布的产品信息及新闻文章,必须按有关规定向本网站载明的相应著作权人支付报酬并在其网站上注明真实作者和真实出处,且转载、摘编不得超过本网站刊登、转载该信息的范围;未经本网站的明确书面许可,任何人不得复制或在非本网站所属的服务器上做镜像。

本网书面授权使用作品的,应在授权范围内使用,并按双方协议注明作品来源。违反上述声明者,昆仑海比(北京)信息技术有限公司将追究其相关法律责任。