微信人脸识别是识别谁的_ “全民刷脸”的时代 想欺骗人脸识别有多难?

有的游客把动物园告诉法庭,不是因为其他的理由,而是因为那个游客对动物园新引进的脸部识别认证系统收集自己的个人数据不满。

这是国内首次以涉及人脸认知的安全隐私问题向法庭诉讼商业机构,将这一应用以来有争议的技术再次推向波澜。

脸部安全检查,支付,搭乘,地铁巴士,还有结婚证明书,领取养老金……脸部识别取代钥匙,巴士卡,银行卡,身份证明书,渗透到人们的衣食住所。

尽管不愿意接受,但我们正迅速进入“磨练全民面孔”的时代。 随之,人们对脸部认识的不安和恐惧与日俱增。

首先,在安全问题上,刷面的支付会轻易被打破吗?

其次是众所周知的隐私问题,是把动物园告诉法庭的游客最担心的问题,动物园有权收集自己的脸部数据吗? 如果动物园泄露了自己的数据信息会怎么样?

更有争议的是,在教室、施工现场、办公室等地方,脸部识别和更多的尖端技术曾经被用来“监视”更多的学生和家畜。

该技术引起了各种各样的问题使人们不安,科幻电影的不安想象进一步扩大了这种担忧。

但是,关于脸部识别,什么样的问题值得警惕,还有,什么样的问题不过是过度的不安呢? CV智识就此采访了多家AI公司的人脸识别专家、算法工程师、人脸数据采集商、相关技术的极客和科学家,试图分开雾气和争论,尽量客观地再现当前人脸识别技术最现实的业务状况。

你的脸安全吗?

一群小学生围着丰巢快递柜台,用其中一个少年手里的印刷照片向快递柜台扫描,完成了面部识别。

出乎意料的是,浙江省学校的小学生们只要印一张照片,就可以擦亮真正的脸,欺骗附近的丰巢智能柜,取出父母的行李。 一张照片可以“蒙混合格”,脸部识别已被小学生们轻易破坏。

出现了磨脸付出安全性的疑问。 如果别人只用一张照片就能轻易地解除装载了自己面部检查的所有设备,别人不就能轻易地偷走自己的财产吗

事实上,快递柜台事件只是典型、有代表性的极端例子。

“只要一张照片就能黑进系统,只是因为这个自动贩卖机系统没有生物认证技术,产品经理认为快递没有多少钱,觉得贵重物品不会放在自动贩卖机上,所以认为不需要这个功能。”

但是,如果物品不贵重的话,不用生物认证技术,产品经理不是会瞧不起我们穷人吗

当然不是。 “结果,生物识别技术的研究开发成本很高,数据收集成本一天达到数十万”,该工程师继续向CV解释智慧。

云从有科学技术的人脸识别应用程序开发者那里教授CV的智慧,其实人脸识别技术中“生物检测技术”的安全水平较低,需要在这项业务中嵌入高安全水平的生物检测技术。

现在的人脸识别从技术方案分为2D和3D。 典型的2D生物识别技术应用就像支付宝,在面部识别前眨眼,确保完全静止的面部,如照片,不能解锁。

3D意味着生物技术使系统能够获取验证者的深度信息,3D生物技术有多安全? 不夸张,其精度可以简单地区分双胞胎和多胎。

现在着名的大工厂,如阿里达摩院、腾讯AI Lab,AI公司如商汤、广视、依图、云从,其提供的人脸识别服务都是基于3D生物技术的,在重大考试、门禁安全系统中3D识别已经发挥了超越想象的优势。 你隐瞒过替代考试、替代考试和安全吗? 几乎不可能。

欺骗人脸识别有多难呢?

两位GeekPwn2019选手,少年极客教授CV智慧,让AI认识黄健翔为伊万卡,以图像对抗的手段,勉强完成了这一挑战。 “三种模式,我们只打破一个,而且打破它的效果并不是特别好。 我以为照片是伊万卡,但是自信很低”。

天才少年还很难100%突破脸部识别,完全不懂技术的普通人自不必说,用终端打算突破系统几乎是不可能的。

有科学技术的脸部识别应用程序开发人员教授CV的智慧,说“是否容易被打破”。 这不仅考验了每个家庭的算法实力,更重要的是对攻击的能力,如照片、视频、面具等。 相对而言,人脸识别现在的生物识别领域安全性很高。 当然,那也不是万全的。 实现人脸识别安全性、规模化需要技术水平、法律法规和行业标准逐步完善。

关于如何解决脸部磨光的安全危险,云彩必须从有科技的脸部识别应用开发人员那里教授CV的智慧,关注两个方面:第一,以磨光的口令为支付交易,避免磨光单纯的脸部,完成支付业务,第二,脸部信息和

当然,安全是相对的,没有保证100%安全的技术,目前普遍运用的3D生物人脸识别是安全度高且非常困难的加密手段。

人脸识别会剥夺我们的隐私吗?

洗脸上班、洗脸检票口、洗脸付款、洗脸登记……随处可见的相机随时都能捕捉到人的年龄、人种、表情、身份、职业、收入、喜好、性格。 掌握背景照相机的科学技术公司和相关机构,列出了我们的个人数据和隐私。

问题随之发生了。 如果这些数据因保管不良而泄露,或者被黑客侵入,有可能导致非法者利用的危害结果开始令人担忧。

脸部识别技术的强大数据采集和分析能力成为了一把双刃剑,一方面容易进行社会管理,另一方面也感到自己的隐私非常愤怒。

关于数据的收集、使用问题,有技术的人脸识别应用开发人员教授CV的智慧,忽视了“是否容易得到”。 这包括取得业务现场的面部数据和底层数据,仅仅拥有单一的数据是无法识别对照的。 在现在的脸部识别业务应用场景中,无论是在数据收集、调用、核对等阶段,都必须在被用户知晓并同意的状态下进行”。

数据标签提供商Testin CTO陈冠诚也教授CV知识,他们收集的数据必须合法。

“具体而言,数据收集标注有两个方面。 一个是安全性,另一个是隐私。 安全性可能是我们所有的客户都要求,这个数据只能给我,不能给其他家庭,所以我们通过法律法规、合同条款来保证我们的数据,即使是数据处理的一部分,最后的数据安全性也是合作伙伴

“隐私与市民个人收集的数据有关,要求个人的许可。 采集的公民个人实际上被允许使用这个数据。 这是我们从这个角度保证的。 陈冠诚对CV智识说,现在我们接触的商用脸部识别机器,无论是训练用的数据还是收集到的数据,都是通过合法的正规途径得到的。

关于数据存储,多个人脸识别算法的专家教授CV的知识知识,人脸生物样本的核心数据库由公安、中央银行等核心机构掌握,一般的商业运营商无法获得。

校园和工作环境中设置的脸部识别装置,通过监视人们的行动和心理状态引起了争论。 人的脸对“看一眼”人的个人信息和心理状态的认识确实让人感到不安。

无视科学技术,将人脸识别设备搬入教室,分析学生上课的状态、表情、集中度的风浪还没有完全结束。 一波不平,一波又起。 在美国,一家叫Gaggle的公司用几乎相同的方法监视学校的学生。

随着问题的关注,学校开始规范这类设备的应用。 商业公司开始反省脸部识别应用的隐私和道德问题。

云从有科学技术的人脸识别应用程序开发人员那里教授CV知识,利用人脸识别系统技术,进行授课管理和教学效果分析,也不可避免地收集到大量的数据。 个性化跟踪学生学习行为的目的是通过分析产生个性化学习计划,提高学生的学习效率,在这种理想情况下符合教育的未来趋势。

根据这个开发者,脸部识别作为技术,其本身没有问题,如何使用是很重要的。 同样的脸部识别技术,在幼儿园和小学构筑智能防范系统,为了寻找失去的孩子和保护老人,很少陷入争论。

“在教育场景中使用AI技术,需要进一步推进法治化进程,建立相关法律法规,使其能够遵守法律。 这是确保技术不被滥用,限制技术负面影响,真正发挥促进教育教育作用的关键。

随着人脸识别技术的应用,引起了广泛的争论。 为了倡导AI的利用,2019年7月发布了以企业自身管理标准为基础的《人工智能伦理行为规范》,从合法性、人的监督、技术的可靠性和安全性、公平和多样性、责任追踪、数据隐私保护等6个维度,为人工智能正确秩序的发展制定了明确的规范。

如何使用技术,根据社会有不同的选择,但是不变的共识,技术应该得到正确的使用。

美国艺术与科学院院士、癌症免疫学家卡尔·琼恩负责对整个社会,包括科学家在内,应该如何应用这些新技术,目前技术发展很快,但不同社会在接受采用新技术方面积极性和意志不同。

“作为科学家,我的责任是保证癌症最终得到治愈,希望通过技术的进步来实现这个目标,但是全社会的挑战需要大家共同应对”卡尔june也同样利用技术,通过滥用技术来实现隐私和道路

从疯狂到理性

经过几年的密集、迅速的爆炸性着陆,人脸认识进入了合理的发展阶段。 安全、隐私、道德、不加区别的过度应用带来的问题如潮水般涌来,也伴随着反省。

随着“中国人脸识别第一事件”的制定,人们提出法律武器,开始应对人脸识别过度应用带来的各种担忧。 无论是学校还是动物园,迄今为止利用脸部识别应用的机构都开始考虑应用新技术,既便于管理,又可能引起副作用。

提供人脸识别服务的公司正在斟酌技术的安全性,制定道德规范。 技术和商业天才们为了赢得市场竞争,为了使利益最大化,在考虑提交漂亮的财务报表的同时,也开始考虑用户作为人的安全、隐私和尊严。

通过对多个行业相关人员的访谈,CV智识发现,对于大众所关心的安全和数据隐私问题,行业内已经有了比较成熟的解决办法。 通过面部认识“监视”众多学生和家畜,把握学生的学习和工作情况,是目前争论的最大领域。

新技术带来的问题不容忽视,不明真相带来的过度不安也需要缓和。

大家都在看

相关专题