打人不打脸:人脸识别滥用的十大应对方案
作者:星期一, 十二月 23, 20190

上周,美国一家人工智能企业 Kneron(耐能)发布的一条消息在安全圈炸开了锅,这家公司宣称自己制作的面具能够绕过包括微信支付、支付宝、铁路刷脸进站等安检设施,并且实验验证通过面具可以完成支付宝支付,甚至进入中国的火车站。

对此,支付宝团队表示此前试图联系 Kneron 公司,但是该公司已经将新闻及视频下架,没有提供更多信息。而微信方面则宣称,自己采用的是 3D 活体检测技术,综合使用 3D、红外、RGB 等多模态信息,可以有效抵御视频、纸张、面具的攻击。两家支付企业均表示,如果出现刷脸支付导致盗刷可以申请全额赔付。

最糟糕的安全技术,最强烈的资本冲动

事实上,2019 年人脸识别技术相关的安全和隐私问题已经多次曝光,今年 8 月初一个 3D 打印公众号发布的测试视频中,实验人员用 3D 打印的蜡烛头像成功骗过支付宝人脸识别系统买到了一张火车票;9 月份,换脸软件 ZAO 被工信部约谈整改;10 月份,嘉兴上外秀洲外国语学校的小朋友们在课外科学实验中发现,只要一张打印照片就可以代替真人刷脸,骗过小区的丰巢智能柜,取走父母的快递件。事发后丰巢紧急下线了 “刷脸取件”。

虽然支付宝和微信在人脸识别风险事件的处理中都展示了足够的诚意,而且人脸识别技术的安全风险评估尚未有业界的权威报告,但有一点可以确认的是,这个风险是确确实实存在的。

其实早在 2017 年,安全牛就曾经报道过 Gitglass 在黑帽大会上的一次题为《最没用的企业信息安全技术》黑客调研,结果如下:

时隔两年,如果大家对上面的调查结果有异议,不妨我们重新投个票,从下面选出你认为的最脆弱的企业安全技术(如有其他选项建议请在评论区留言):

其实,人脸识别数据,尤其是 3D “活体”人脸识别数据的泄漏或者滥用,其潜在危害和滥用远不限于身份认证,在网络欺诈、网络谣言和社会工程攻击中大有“潜力”。例如 2019 年开始蹿红的人工智能深度伪造技术,人工智能大咖李飞飞涉嫌滥用用户照片等生物测定数据被起诉,以及斯坦福大学根据人脸数据分析个人性取向等人工智能研究项目,都凸显了保护个人生物识别隐私数据的重要性。

电商平台为何对人脸识别技术如此热衷?其背后动机并不复杂:人脸数据是一个超级金矿,将引发互联网从 “吸睛” 到 “读心” 的变革,网络营销也将从偏差和延迟的巨大 “用户画像” 发展到实时准确的用户想法捕捉和人工智能响应。在这场人机互动 3.0 的盛宴中,没有一家巨头能够承受落伍的损失。

此外,如果机器能够比人类自己更加了解人类,无疑将引发一场空前的伦理恐慌,这也意味着可被机器取代的人类职业范围扩展到心理咨询师、人力资源、教师、海关稽查等过去认为无法被机器取代的岗位。与此同时,人工智能与人脸识别大数据的结合,也将掀起一场广告业的革命,“看人下菜碟” 式的精准营销蕴含着巨大商业价值,这也意味着人脸数据将成为互联网经济的下一座金矿和油田。

护脸:法规与管理双管齐下

面对人脸识别数据隐私和安全问题面临的严峻形势,我国的相关法规也迅速出台,2020 年 1 月 1 日起即将实施的《网络音视频信息服务管理规定》中明确规定禁止利用深度学习、虚拟现实等新技术新应用制作、发布、传播、虚假新闻信息。

技术管理方面,布鲁金斯学会 (Brookings Institution) 于 10 月 31 日发布的《防止人脸识别滥用的十大可能方案》,给目前人脸识别技术的安全强化和部署提供了较为全面的解决措施:

人脸识别治理十大措施提要

1. 限制数据存储时间

2. 限制数据共享

3. 公共场所设立人脸识别标识

4. 提升人脸识别精准度

5. 开展第三方独立评估

6. 减少相关信息收集

7. 营销程序需要增加退出选项

8. 制定统一的技术标准

9. 完善标准化组织认证

10. 确保数据的实用性和代表性

人脸识别技术在反恐、安保、搜救等领域有广泛应用,但近年来全球各地对人脸识别技术应用的安全性和隐私问题的担忧和质疑也在不断累积。

本文是布鲁金斯学会(Brookings Institution)的人工智能和新兴技术(AIET)计划的一部分,提出了10项措施,来保护人们免受人脸识别软件带来的巨大风险。这些措施主要包括限制数据存储和共享、设定准确性标准、建立第三方评估等等。

01、限制数据存储时间

该期限会因使用场景的不同而有所不同,有些人脸识别信息需要保留更长的时间,而另一些信息则可以在短时间后被丢弃。一些针对迫在眉睫的危险威胁的图像数据在短时间内具有很高的价值,而另一些图像可能需要保持更长的时间。一种称为“联邦学习” 的机器学习方法可确保数据永远不会离开摄像头本身(即,永远不会发送到中央数据中心),从而提高了数据安全性。

02、限制数据共享

人脸识别数据从组织 A 向组织 B 或组织 C 传输图像时,必须遵循明确的标准,以证明组织 B 或 C 存合理需求。企业不应该不受限制地传输或者出售人脸识别数据。人脸识别数据被多个企业和组织分享会造成极大安全隐患。例如,美国车辆管理局将识别图像出售给第三方机构,而数据主体(车主)完全不知晓数据挪作他用。

03、公共区域设置人脸识别技术部署公告

在公共场所使用并采集人脸识别数据的公司或政府机构,应在公共场所张贴明确的通知,告知他们正在从事这些活动。这提醒公众他们的脸已被记录下来,因此反对者可以避开这些区域。

04、提高精度标准,消除“偏见”

人脸识别目前的主要问题之一是对不同种族群体的识别准确度不同。这是由于训练数据不完整或不具代表性造成的,因此基于这些数据的人脸识别是有偏见的。在人脸识别领域,与非白色面孔相比,软件对白色人种的识别准确度更高。对肤色较暗人种的检测准确性较差。随着FR识别被部署在执法、边境安全、零售和机场中,不同群体之间的精度偏差可能会导致偏见、歧视或各种其他难以预料的结果。

05、部署开展第三方独立评估

第三方的独立评估可以增强消费者和用户的信心,帮助消费者了解产品功能预期并避免出现其他技术问题。例如“能源之星”的评星系统。

06、减少相关信息收集

人脸识别技术会记录与主要目的无关的大量信息,除非证据与调查事件明显相关,否则执法部门无需保留调查以外的无关信息。当图像不再具有调查价值时,可以做模糊化处理或者销毁。

“看人下菜碟”是人脸识别最具商业价值的营销应用之一。商家必须征得用户明确同意后,才能将其人脸识别数据用于营销活动。此外,“退出”和“遗忘”权也将建立公众对人脸识别技术的信心。

08、制定技术标准

技术标准是公司保护产品的常用方法。例如,在开发移动技术时,专家们聚集在一起,确定了通信,安全性和互操作性的通用标准。所有智能手机都必须满足这些规格才能销售。国际机构将标准推广到海外,使智能手机在全球范围内都可以安全地使用。

相同的逻辑适用于人脸识别技术,应该有确保相关应用程序安全和隐私受到保护的技术标准。通用规则将能够解决普遍存在的恐惧,并努力限制由此产生的问题。

09、认证机构和方法需要完善

企业系统的安全性方面有国际标准化组织(ISO)等组织的认证。ISO标准可以界定产品是否符合政府法规,并由第三方组织对产品进行合规性测试。这可以帮助消费者和企业了解应用程序的功能以及它们是否符合指定的规则。这是保证高度统一的一种方法,可以提高整个部门的信心。

在美国,NIST负责认证人脸识别产品。该机构使用公共数据库来测试人脸识别应用程序。但是,有人抱怨 NIST测试依赖于来自私人网站的抓取数据,并且其测试无法推广到日常场景。它没有对大量数据进行测试,而是过多地关注与执法相关的应用程序,并且重点测试的是图像质量和操作功能。

10、确保数据的实用性和代表性

人脸识别的相关认证、技术标准和政府合规性测试必须基于具有代表性的数据,而不是特殊数据(例如警方大头照),这些数据需要在实际条件下在现场进行采集,大量的实地照片可以减少光线和分辨率等因素给人脸识别系统造成的误差。

《防止人脸识别滥用的十大可能方案》原文链接:https://www.brookings.edu/research/10-actions-that-will-protect-people-from-facial-recognition-software/

相关阅读

 

使用“头像生成器”轻松骗过人脸识别

深度伪造和合成身份:关注身份盗窃的原因

 

 


相关文章

写一条评论

 

 

0条评论