打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
当AI是一名种族主义者

全文共 2639 字,阅读大约需要 5 分钟


人们一般会认为,基于数据和程序运行的人工智能算法,能做到不受情感因素影响,达到客观中立,可是有研究者发现,事实并非如此。
一部揭示该问题的纪录片《编码偏见》(Coded Bias)近日在美国流媒体平台上映,纪录片讲述当下广泛应用于广告、金融,甚至公共事务领域的人工智能技术,如何延续了社会固有的对于种族、阶层以及性别的歧视。《好莱坞报道者》(The Hollywood Reporter)在对该影片的介绍中写道:“现代社会正面临着两个问题:当人工智能支配着我们的自由时,这意味着什么?人工智能对我们的影响是什么?这部具有开拓性的影片能让公众理解,算法如何影响我们。”
《编码偏见》的海报。图片来源:IMDB
美国麻省理工大学人工智能究员布兰薇妮(Joy Buolamwini)是该纪录片的主角之一,她是一名黑人女性,在研究过程中,她无意间发现,自己脸部无法被识别出来——直到她戴上一个纯白色的面具。这种情形在人工智能技术中并非孤例,它是一种“算法偏见”,因为人工智能学习的数据,主要来源自浅肤色人种和男性,换句话来说,人工智能“先天地”忽视了黑人和女性。
“你以为人工智能是很前沿的技术,但人工智能建基于数据,而数据反映的是我们的历史。”布兰薇妮说。
布兰薇妮的另一个身份,是算法正义联盟(Algorithmic Justice League)的创始人,该联盟是一个推动技术平等的倡议团体,他们鼓励公众提高对人工智能的警觉,并帮助受影响社群发声,同时鼓励技术人员和政策制定者降低人工智能的偏见。“现今世界,人工智能掌控着机会、自由和信息获取权,而它可能正在固化种族和性别等方面的歧视,并且威胁到我们的医疗和经济系统,甚至影响司法公正。”算法正义联盟的网站写道。
布兰薇妮摘下白色面具后,她的脸无法被人工智能系统识别。图片截图自算法正义联盟影片
近年来,随着算法应用的普及,也有多起歧视性事件被曝光。据路透社2018年的报道,亚马逊公司的人工智能招聘系统被指歧视女性,简历出现的“女性”字眼会降低该名应聘者的“得分”,知情者更向路透社透露,有两所女子大学在排序上被降级,尽管他们并没有设定学校名单。
这一算法结果的解释是,人工智能学会了歧视女性应聘者,因为它的学习材料来自该公司10年来的简历数据,这10年以来,被录用的候选者大部分是男性,性别差距在软件开发等技术岗位上尤为明显。亚马逊公司回应表示,从未仅以人工智能系统来筛选应聘者,但路透社在报道中指出,招聘人员能获得人工智能系统给出的建议。此外,全球线上求职平台凯业必达(CareerBuilder)在2017年的调查中发现,约55%的美国人力资源经理表示,在未来五年内,人工智能技术将在日常招聘工作中普遍应用。
人脸识别技术的算法偏见问题是《编码偏见》中的重点部分,这一议题也已经得到相关研究的关注。在2019年12月,美国联邦机构国家标准暨技术研究院(NIST)发表报告指出,与白种人相比,黑人和黄种人的人脸识别错误率是其10倍至100倍不等,而在执法机关的人脸图片库中,识别错误率最高的是美国原住民。与此同时,女性和老人的脸部也更难以识别。这一研究的数据来源是美国签证申请和过境数据库中的1800万张人脸照片,并测试了189种人脸识别算法,研究结果能代表绝大部分商业应用算法的结果。
《编码偏见》宣传片截图
人脸识别技术对黑人脸部识别水平较差,并不意味着黑人可以“躲过”人脸识别,恰恰相反的是,他们可能因为错误的识别技术而受到不公对待。在今年“黑命攸关”运动(BlackLivesMatter)的背景下,人工智能技术在警务上的应用以及其算法偏见的后果,目前最受人们关注。
今年1月,美国底特律的黑人男子威廉斯(Robert Williams)因被人脸识别技术错误识别,被关在看守所长达30小时。当地警察局通过人脸识别技术,认定他是两年前一家高级时装店失窃案的嫌疑犯,可是他上一次到该商店,已是2014年的事情了。
根据《纽约时报》报道,警察逮捕威廉斯的时候,拿出一张人脸特写照片给他辨认,他立即否认相中人是自己,并反问道:“你认为所有黑人男人都长得一样吗?”
在底特律所在的密歇根州,犯罪现场监控取得的人脸信息,会上传至该州的人脸数据库中,并以算法搜索出相似的人脸。他们所使用的算法也纳入到前述的国家标准暨技术研究院研究中,并被证明存在算法偏见——黑人人脸的识别错误率远高于白人。
底特律市警察局的数据中心。图片来源:纽约时报
五个月后,当地检察官就威廉斯被人脸识别错认为罪犯,并遭到逮捕的遭遇而道歉。威廉斯的案件已经撤诉,他也成了公众所知的,第一个因人脸识别错误而被捕的人。不过美国乔治敦大学隐私与技术中心,长期关注政府人脸技术使用问题的律师加维(Clare Garvie)表示,她怀疑这并非第一起人脸识别错误的案件,只不过其他案件并没有被人们知晓,同时她认为算法技术有很多种,政府部门应该只采用有效的算法技术。
早在2016年,布兰薇妮就在一场演讲中提出了担忧:“当我们看到Facebook的照片标注名字出错时,我们会一笑而过,可是如果有人被错误地标注成犯罪嫌疑人,那我们就笑不出来了,这是不容忽视的公民权利问题。”
《编码偏见》宣传片截图
人脸识别的算法偏见问题,在“黑命攸关”运动中也被提及。质疑声浪下,科技公司在为执法机构提供技术时也变得更为谨慎。今年6月,亚马逊和微软两家公司相继公开表示,将停止向执法机构出售人脸识别软件,前者的停售期为一年,后者表示,在没有相应的立法之前,都不会再给美国警方出售人脸识别软件。
而最早表态停售人脸识别技术的科技公司IBM,则在致美国国会的信中写道:“现在是时候开启一场全国对话,一起讨论国内执法机构是否使用,以及如何使用人脸识别技术的问题。”同时,IBM公司向科技媒体The Verge表示,不会再研发人脸识别技术。
与此同时,科技公司也在试图修复算法中的歧视问题。例如位于伦敦的科技公司Synthesized日前出品了一款免费工具,可以用于修复算法偏见,在其介绍中,这款应用可修复算法中的种族、性别、年龄、性取向等方面的歧视问题。
《编码偏见》的导演坎塔亚(Shalini Kantayya)在接受科技媒体OneZero采访表示,科技公司的举动证明了,他们把一些针对算法涉及歧视的问题听进去了。她认为,面对算法偏见以及监控常态化的问题,普通公民也能靠行动来促成改变,例如可以推动技术使用规范化的立法,保障公民权利免受技术侵入的损害。
参考资料:
https://www.nytimes.com/2020/11/11/movies/coded-bias-review.html
https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G
https://www.nytimes.com/2020/06/24/technology/facial-recognition-arrest.html
https://www.youtube.com/watch?v=UG_X_7g63rY
https://www.theverge.com/2020/6/8/21284683/ibm-no-longer-general-purpose-facial-recognition-analysis-software
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
如何对抗算法偏见?| Physics World 专栏
AI的“色差”与“纠偏”
2018年我们可能要继续忍受算法歧视,但这种境况并非无解
陈根:人脸识别下的隐私让渡,代价有多大?
谁才是让AI产生偏见的幕后推手?
谷歌AI伦理团队闹剧仍未完结,巨头们所说的“科技向善”还能相信吗?
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服