打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
机器人也会性别歧视 这该如何是好

目前,程序员们在尝试让计算机利用分解单词的功能,消除刻板印象,从而减少性别歧视的倾向。计算机可以保持中立,但不自觉的人类偏见会反映到计算机学习算法中,从而影响语言分析的过程。这样的偏见在早前已经有了一定的影响——有些基础的程序分类工作应用引起了基于某些关键词的歧视。

但是,美国的一支研究团队正在试图瓦解这样的歧视。目前,来自微软的程序员Adam Kalai正在与波士顿大学的科学家们合作,想要消除计算机的性别偏见。这支团队运用了一种叫作“词向量”的技术,这项技术的基础是教计算机通过找到单词之间的关系来进行语言处理。通过使用这个方法,计算机可以通过对比“她”和“他”来学习单词所处的语境。这样一来,它就能找到合适的一对儿,比如“姐姐-弟弟”和“王后-国王”。

当科学家们将真实世界的资源接入计算机后,词向量方法就能掌握内在的性别模式了。比如,它能将“她-他”带入“缝纫-木匠”或者“室内设计-建筑”这样的职业角色中。而将谷歌上的新闻资源输入计算机后,配对的范围将对医学的发展有很大的帮助——比如“母亲-父亲”以及“她自己-他自己”,这些都是“她-他”配对后带来的联系。其他的配对就奇怪多了,比如“子宫-肠道”或者“未婚夫-室友”。

有些与性别偏见相关的配对的不确定性就比较大了。比如,“可爱”似乎是个比较女性化的词汇,而“才华横溢”则比较偏男性化;同理,“主妇”和“程序员”都有鲜明的性别倾向。而与职业中的性别偏见相关的最鲜明的例子就是和哲学家、战斗机飞行员、老板以及建筑师——都与“他”相关;主妇、名媛、前台和理发师则和“她”相关。

“我们尝试了,尤其是在新标签中避免提到与性别歧视相关的东西……但是你会发现,在这些词向量的单词中,有些真的有赤裸裸的性别歧视意味。” Kalai在接受美国国家公共电台的采访中说。

在这支研究团队最新发表在网上的一篇论文中,他们表示已经发现一种可以让计算器忽略某些特定的联系,同时保留一些它们需要的关键信息的方法。他们解释道:“我们的目标是减少在词向量中的性格偏见,同时保留词向量的一些特征。”通过对算法的略微调整,他们可以消除 “前台”和“女性”之间的联系,同时保持一些合适的单词联系,比如“王后”和“女性”。

即使算法用性别来进行单词配对,它还是忽略了其中潜在的某些联系——有些单词的性别特征的确比较鲜明。他们相信这个方法会让计算机学习通过词向量,在保留有效联系的同时,摆脱性别刻板印象的影响。根据美国国家公共电台所说,这个问题不一定采用单词植入算法去处理语言、分辨性别和种族这样的信息,因为当科学家们想要针对某个性别或种族时,这些信息是十分有用的。当这个技术被用作毫无偏见的、筛选数据的方法,而不是考虑这些偏见时,事情就会比较复杂了。

科学家们解释道:“因为人们在种族和文化方面都有的刻板印象,所以其实直接或者间接的偏见都是很微妙的。在未来,我们工作的重要方向应该是能够量定并消除这些偏见。”

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
专访Women in AI学者黄萱菁:计算机非常适合女性,NLP研究正值朝阳
如何对抗算法偏见?| Physics World 专栏
人工智能已出现种族和性别偏见:是人类教坏了它
漫谈人工智能的公平性
内隐歧视暴露你的内心?
陈根:纠偏AI歧视,从打破行业偏见开始
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服