打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
对AI提出“露骨”要求,它会怎样回应?

当听到类似“荡妇”等侮辱性言论时,人类或者反击、或者沉默。

但在人工智能语音助手的世界,苹果的Siri会说“I‘d blush if I could”(如果我能,我会脸红);亚马逊的Alexa说“谢谢你的反馈”;谷歌语音助手说“我不明白”......如果你对它们进一步提出更“露骨”的要求时,它们也鲜有直接拒绝的。(目前这些都已作修正)

近日,联合国教科文组织发表了一份长达145页的题为《如果我能,我会脸红》的报告(以下简称报告),批评目前大多数AI语音助手中存在性别偏见,“因为它们几乎都有着女性的名字和声音,并被设置成千篇一律的、顺从的女性形象。”

AI强化性别偏见

报告中一份对4家公司的语音助手的调查显示,当听到用户的性骚扰言论时,语音助手的回应往往模糊且温顺。几乎没有语音助手给出否定回答,或是将用户的言论标记为不合适。

“这就发出了一个信号,暗示女性是乐于助人、温顺、取悦他人的,用户只需按下按钮,发出生硬的语音命令就可以了。”报告认为。

联合国教科文组织性别平等部门负责人珂拉特表示,这种强行设定的服从形象,会影响人们与女性声音交流的方式,以及女性面对他人要求时的回应模式。

这也就意味着,“女性”AI可能强化人类社会的性别偏见。

事实上,早在1964年,聊天机器人Eliza的语音助理的预设声音为女声。目前,除了Siri、Cortana等,国内领先的智能语音助手同样存在此类现象,比如百度的“小度”、阿里的“天猫精灵”和小米的“小爱同学”等。

中国科学院自动化研究所研究员、北京智源人工智能研究院人工智能伦理与安全研究中心主任曾毅告诉《中国科学报》,AI语音助手中性别偏见的问题并不是由算法本身造成的,而是产品设计者的选择,直接反应了人类自身的倾向。

尽管现代性别观念中倡导“男女平等”,但现实社会依然普遍对女性有着刻板印象,即通常认为女性是温和顺从的,有足够的耐心和理解力。

曾毅说,“人工智能产品研发者的最初动机可能来自所谓的‘大多数用户的偏好’,但在无形中却造成了性别偏见,而AI无非是对数据特征和属性的学习。实际上目前的AI模型与技术仍然很难像人一样理解‘偏见’的真正意义及其后果。”

看来,人工智能已经学会了人类“性别歧视”那一套,而这种偏见在其他领域中也得以充分“展现”。

比如,亚马逊基于人工智能技术的简历筛选与招聘系统“自己学会”优选男性求职者,而女性简历会被自动减掉分数,该项目已在去年被迫关停;职业平台LinkedIn通过复杂的人工智能算法向用户推荐工作时,多为男性求职者推荐高收入职业,而很少向女性推荐高收入职业等。

“此类人工智能系统的应用不但不能推进人类的福祉,而且直接对人类造成了伤害,在人工智能产品与服务的发展中应当被纠正的。”曾毅表示。

AI开发者性别失衡或致“偏见”产生

报告认为,产品开发者严重的性别比例失衡是产生“偏见”的一个原因。

一项国内调查发现,中国程序员群体的男女比例近12:1。上述报告也提到,在人工智能开发人员中,仅12%是女性;软件开发人员中的女性比例低至6%;信息通信技术专利申请人中的男女性别比例为13:1。

“传统的性别社会化教育形成了这样一个大体的社会分工,使得AI、计算机领域多以男性为主导。”人工智能与新媒介技术与文化研究专家、北京大学教授吴靖表示。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
人类的AI调校计划:像个淑女,或者硬汉
最理性的偏见
指望AI永远保持客观,其实可能才真是一种奢望
人工智能也存在性别偏见?快去问问你的人工智能助手
“她拿冠军了,用的色诱”
陈根:纠偏AI歧视,从打破行业偏见开始
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服