旧金山禁掉了人脸识别技术?人脸识别招谁惹谁了?
转载来源:https://github.com/liuyubobobo
更新时间:2019-06-19 09:39:26
只有在那崎岖的小路上不畏艰险奋勇攀登的人,才有希望达到光辉的顶点。 ——马克思
1.
上周,旧金山正式宣布:禁止旧金山的警察,以及其他政府公共部门使用人脸识别系统。这使得旧金山这座坐落在美国硅谷北面,聚集了大量科技巨头的城市,反而成为了美国第一个禁止使用人脸识别系统的城市。
很多人觉得这是非常讽刺的。我倒觉得这很正常。这就好像父母都是工程师的家庭,反而更不愿意让自己的小孩子过多的接触屏幕。因为工程师们天天对着各种屏幕,深知屏幕的危害。同理,有着“科技城”之称的旧金山,或许是因为太了解科技了,所以反而率先禁止使用了人脸识别技术。
首先,需要澄清的是,这个禁令,不意味着旧金山禁止发展人脸识别技术。后续大家就会看到,我认为这个禁令背后,一个重大的原因,恰恰是因为人脸识别技术还不够成熟。所以,人脸识别这个领域本身,还是有巨大的发展潜力的。并且,可以预见的,大量的科技企业还会投入更多的资源继续发展这项技术。
但是,在当下,我们的社会(或者说美国社会),并还没有做好准备,全面应用人脸识别技术。
人脸识别技术的应用,到底遭遇了什么问题?旧金山为什么会发布这样的禁令?在这篇文章中,我就将试着谈一谈,人脸识别技术到底招谁惹谁了:)
2.
所有的技术,如果不能被大规模的推广使用,一定有一个“原罪”,那就是这个技术本身还不成熟。人脸识别也不例外。所以,与其说我们的社会(或者说美国社会),还没有做好准备,不如说,人脸识别技术本身,其实还没有做好充足的准备。
作为一项识别技术,判断它是否成熟的关键,就是其识别准确率。现在最先进的人脸识别技术,识别准确率是怎样的呢?
这其实是一个很难界定的问题。如果熟悉机器学习算法的同学就会明白,判别一个机器学习算法结果的评判标准众多。这就好比问一个同学,他是不是足够优秀?此时,我们可以使用他的高考成绩做为评判标准;可以使用他在校期间所有课程的平均成绩作为标准;也可以让他曾经共事的同学或者导师给他打分做推荐,当做评判标准。机器学习算法同理,拥有着众多不同的评判标准。
为了让大众更好地理解当下人脸识别技术的局限性,美国有一个组织,叫做 ACLU(American Civil Liberties Union),他们做了一个实验,把美国的国会议员的照片作为输入,放进亚马逊的人脸识别系统“Rekognition”中,结果有 28 名国会议员,被亚马逊错误地识别为“曾经有犯罪记录的罪犯”。
图片来源:ACLU官网
美国的国会议员总共有 535 名,28 个错误识别,意味着正确率有 94.7%。这个数字看起来很高,但是,要注意,这里的测试数据集,是绝对没有犯罪记录的国会议员。ACLU 想告诉大众的是,每 100 个无辜的平民老百姓,就有 5 个人,可能被系统错误的认为是罪犯!如果从这个角度去思考,这个准确率并不算高。以美国最受欢迎的橄榄球运动为例,一个橄榄球运动场,大概能容纳 10 万人,按照这个错误率,一场比赛,系统将会识别出 5000 个可能的罪犯!
更关键的问题是,当机器告诉我们,这 5000 个人可能是罪犯以后,执法人员(警察)应该怎样行动?这就是当下,美国的法律制度还没有处理好的地方。因为如果是人为报警,警察可以以保护报警人的名义对他人进行审查查证。但是,现在是机器报警,这要怎么算?警察敲开你的家门,对你进行盘问,只因为你家楼外的摄像头,将你错误的辨识成了一个罪犯?
3.
上面所说的问题,是当下人脸识别系统本身固有的精度问题。而更加严重的问题,在于使用者(警察)某种形式的“滥用”,会让无辜的老百姓更容易被错误地识别成是罪犯。
2017 年 4 月 28 日,有一名嫌犯在纽约的一家便利店偷了一打啤酒。店家报警,并且调取监控录像,监控录像成功的捕获了嫌犯的面部。但是,由于监控摄像头的分辨率很低,所以照片中,嫌犯的面部非常模糊。纽约警方第一时间让人脸识别系统识别这样一个模糊的照片,结果没有得到任何匹配记录。
为了发展人脸识别系统,纽约警方有一个专门的部门,叫 FIS(Facial Identification Section)。可能是为了证明人脸识别系统的有效性,FIS 的一个警长做了一件有“创意”的事情。
这名警长通过监视录像的照片,认为嫌犯长的很像演员 Woody Harrelson,于是,将这名演员的照片放进了人脸识别系统,去寻找匹配记录。
图片来源:维基百科 Woody Harrelson 词条
这个故事有一个很好的结局:警长的做法奏效了,纽约警局最终成功地抓捕了这名可怜的偷啤酒的罪犯。一度,纽约警察还将这个案件作为人脸识别系统的一个成功案例来宣传。同时,也公布了更多案例,警察曾经使用类似的手法抓捕更多嫌犯——使用其他人的特征,甚至是警察自己手绘的面部特征,来辅助人脸识别系统匹配罪犯。
这种方法很快引起了全社会的讨论。
一方面,警察需要引入这样的手法,人脸识别系统才能发挥作用,再次证明这项技术本身的不成熟。一旦照片模糊,或者角度不够“合适”,人脸识别系统就毫无用武之地。
另一方面,警方实际上是在尝试引入新的面部特征细节,来“帮助”人脸识别系统匹配成功。可是,警察引入的这些新的面部特征,是主观的。警察认为这个模糊的照片长得像你,就能把你的照片放进去用来寻找罪犯。
那么问题来了,如果警察的判断是错误的呢?如果只是某个警察主观上认为那个模糊的照片像你,但实际上不像呢?或者,即使从人的视角去看,你和某个嫌犯长得真的很像,但这不一定代表从机器的视角看,有同样的结论。那么。警察的这种“主观行为”,将大概率的进一步加大机器犯错的可能性,让原本不成熟的人脸识别系统更加的不成熟。毕竟,在机器学习领域,一个重要的准则是:garbage in, garbage out。进入机器的资料一旦是垃圾,得到的结论,也一定是垃圾。
更不用提,从法律的角度,警察的这一行为,等同于在案件处理过程中,引入了原本根本不存在的证据。这些“证据”还是主观想象的结果!如何判断这样的行为是否正当?这个问题还属于法律的真空。
4.
人脸识别技术在美国遭到非议的另外一个重要原因在于,当下,这种技术有可能恶化美国的种族歧视问题。而种族歧视,在美国这个多种族的国家中,是异常敏感的问题。
还记得上文介绍的那个 ACLU 组织吗?他们不但使用了美国535名国会议员的照片做了测试,还使用更大规模的照片进行了测试。结论是,对于有色人种,人脸识别技术明显的更容易错误的将普通人认作是罪犯。这个错误率是多少呢? ACLU 公布的数字是 39%。远远高于我们之前得到的 5%。
39% 是什么概念?比三分之一还高。换句话说,我们基本可以理解成,机器会认为三分之一的有色人种,都是罪犯。
而 MIT 的另一篇论文,则坐实了这个结论。研究员 Joy Buolamwini 与来自微软的科学家 Timnit Gebru 合作的一篇研究论文,比较了三家人脸识别系统,综合三家的表现,得出结论:现行的人脸识别技术,针对不同种族的人群,分辨准确率差异巨大。针对黑人女性的错误率,高达 21%-35%;而针对白人男性的错误率,则低于 1%。
现在,很多人脸识别公司对于出现这样的偏差,给出了一些解释:
首当其冲的便是,训练样本中,白人男性更多。这也就造就了算法结果对白人男性的识别准确率更高。大家在思考机器学习算法相关的问题时,一定要不断提醒自己,数据是极其极其重要的,甚至比算法本身更重要。我在我的课程《Python3 入门机器学习,经典算法与应用》中,对问答区中的很多问题都在不停地强调这一点。数据或许比大多数同学想象的都重要,这也是高质量的数据在这个时代之所以值钱的原因。
据称,有一家人脸识别系统,其训练数据集中,男性比例为 75%;而白人比重更是高达 80%。训练数据集有如此大的偏差,必然导致训练出的模型,在具体应用中,产生巨大的偏差。
另外一个显而易见的原因是,对于黑人,深颜色的皮肤,必然会将面部的很多其他特征遮掩掉。尤其是对于摄像头来说,本质就是在捕捉色彩信息。而较暗的肤色,使得人脸上的其他特征信息被掩盖。基于摄像头的人脸识别系统,天然地更难以抓住黑人的面部特征。如果再加上环境光的影响,比如在阴天,夜晚,或者避光的街道,更是如此。
所以,我们从技术的角度看,显然,算法是没有种族歧视的。从道理上,设计实现算法的工程师们,也没有恶意。只不过,有色人种本身让算法难以捕捉其面部特征,加上有色人种的训练样本也更少,这一切,造就了当下大多数人脸识别系统对有色人种识别的错误率更高。这样的一个“技术事实”,放到社会中,就被解读成了歧视。毕竟,警察要按照人脸识别系统的判别标准进行行动的。
这便是技术在实验室里实验和在社会上运用的巨大差别。在实验室中,我们只需要关注技术参数就可以了;但是,一旦放到社会中,我们就必须考虑技术带给社会的影响。因为,社会上的大多数人都不是工程师,大多数人都不会,也不可能使用工程师的视角,去看待技术。
5.
前面,我们说了很多人脸识别技术在现阶段本身不成熟的地方。但是,我们假想,即使人脸识别技术很成熟了,准确率已经很好了,在具体应用上,还是会遇到巨大的阻碍。
就在上周,伦敦发生了一个新的“小案件”。一名普通的行人,在走过伦敦的一个地铁的时候,下意识地用自己的衣领挡住了自己的嘴巴,像下图这样。这幅图截自 BBC 官方的新闻画面。
图片来源:BBC新闻
结果,一群正在“蹲点”的警察蜂拥而上。原因是,警察怀疑这名男子在故意躲避摄像头的监控,以让人脸识别系统无法识别他。
警察毫不犹豫地上前检查了这名男子的证件,并且拍摄了他完整清晰的照片,发送给了人脸识别系统。结果表示:这名男子是无辜的。但是,伦敦警察依然做出了一个让大家大跌眼镜的决定,为这名男子开出了一张 90 英镑的罚单。理由是:在公共场合的不当行为。
不知道大家看懂没有,这近乎意味着:如果人脸识别系统被大规模的应用,我们将没有遮挡住自己的脸的权利。
众所周知,在大部分国家,对于车辆管理,都包含一条:不得擅自涂抹,遮挡汽车牌照。这项举措是合理的,因为,将车牌完整的暴露,并不会影响消费者使用汽车的基本功能。但是,把这样的规定放在人脸上,是完全不一样的。
按照这个逻辑推演,一个人可不可以染发?可不可以改变发型?可不可以戴帽子,头巾,眼镜甚至是墨镜?可不可以在节日带面具?可不可以在天气冷的时候带耳罩,或者像新闻中的这个人一样,用高衣领御寒?
如果我们把这个问题扩展到宗教领域,就会产生更严重的冲突。对于某些宗教,要求女性在某些条件下必须戴面纱,那要怎么办?
这一切,现行的法律,其实都还没有给出答案。
6.
最后,我们说一下隐私问题。因为,相比与上述问题,隐私问题其实并不是一个重要的因素。
在这个专栏上周的更新《Facebook的困境:技术和社会的裂痕》中,我曾经向大家介绍了,在 Facebook 的“隐私门”事件中,人们意识到了行为数据的巨大作用:你在Facebook浏览了什么帖子;给谁点了赞;看了哪些视频和广告;又给谁留了言…根据这一系列的“行为数据”,就可以精准的推算出你的隐私 —— 你的性取向如何;政治倾向如何;会买什么东西;对不同的事物看法如何;等等等等。
那么,如果人脸识别系统被大规模的使用,就相当于,我们生活的整个城市,就是一个巨大的 Facebook 了。因为,摄像头有了识别拍照对象具体是谁的能力,相应的,就等同于采集到了:每个人每天都去了哪里;在不同的地点待了多长时间;都见了什么人;买了什么东西;看了什么电影;等等等等一系列“行为数据”。这些“行为数据”比人们在 Facebook 上留下的“行为数据”更加真实可靠,可以更加精准的用于建模,推算出属于我们每一个人的隐私。
当然,这个担心其实还稍微有些早。因为当下的技术水平,还不足以通过如此海量的视频信息,完整地构建出我们每个人的行为数据。但是如此发展下去,这种行为数据的自动化采集,将成为必然。
那么,这样海量的行为数据,将被怎样利用?我们不得而知。剑桥分析事件事件已经告诉了我们,Facebook 上的行为数据,就可能已经影响到了美国大选的结果了。
就算这些数据保存在政府的手上,就算我们相信政府的绝对正义,不会滥用这些数据。但是技术上的安全性如何保障呢?谁能保证这些数据不会因为各种安全原因,而最终流向有利益需求的第三方?这就好比 Facebook 无意做任何坏事儿,但是一旦剑桥分析想办法拿到了数据,事情就变得不一样了。
更何况,西方民众天生就不相信任何政府是绝对正义的。
7.
在这篇文章里,我举了这么多例子,都在说明旧金山决定“禁止警察,以及其他政府公共部门使用人脸识别系统”这一决议,背后到底在担心什么。但是,通过文中所举的例子,大家可能也已经意识到了,尽管人脸识别技术还有诸多不成熟的地方,尽管我们的法律法规还没有跟上这项技术的发展,但其实,人脸识别技术已经被各个国家都大规模的使用了。
我们的国家——中国,也是一个大规模使用人脸识别技术的国家。不仅如此,我国的人脸识别技术,还非常先进,名列世界前茅。这篇文章没有举中国的任何使用人脸识别系统的事例,但大家通过国内的诸多媒体报道,应该能略知一二。
在中国大规模部署人脸识别系统,少了很多西方世界的麻烦。比如,因为我国不是一个多人种的国家,所以系统对黑人识别不准确的问题就不会那么突出,也基本不存在种族歧视的问题。我们国家对于隐私问题,也并不那么敏感。
但这是否意味着,在中国大规模应用人脸识别系统,没有其它问题?
这个问题,是我希望每一个做技术的同学都能思考的。西方的学者无法站在中国自己的立场上思考这个问题,只有我们自己,才能给出答案,想办法让技术,更多地服务社会。
大家加油!:)




评论
发表评论