全文翻译自《Theguardian》 “The tech industry wants to use women’s voices – they just won't listen to them”一文。
首先,对那些喜欢警世科幻的人来说,Tay的故事似乎很有趣。如果一个聊天机器人上线仅仅16小时之后就体现出数字文化最糟糕的方面,这对人工智能的未来意味着什么呢?
如果人工智能可以极快地学习人类的所有创造成果,它会不会无可避免地堕入邪恶?我们的未来是否会变成一场争夺人工智能灵魂的内容创造战争?
有关人工智能的现代虚构作品总是伴随着恐怖故事,内容无外乎男人未能正确地评价女性。
从苹果的Siri和微软的Cortana到具备语音对讲功能的家用恒温器、GPS和健身应用,越来越多的人工智能助理默认使用女声,因为大量研究表明,女性和男性消费者都更加喜欢这种设置。
举例来说,Siri及其同侪知道如何对用户的健康危机(比如自杀倾向)进行回应,但却不知道如何应对“我被强奸了”。
这些女性化的机器人无法像现实中的女性社区一样解答关于家庭暴力的问题。
Siri的开发者显然没有考虑过主要跟女性相关的突发事件,事实上,Siri甚至坚称自己没有性别,但女声不仅仅是一种声音,有人说它还会影响到虚拟助理遣词造句的方式。他们设置种种条件打造了一个女性形象,然后又想让她中性化。
科技行业希望使用女性的声音,但仍然不打算真正聆听其中的内容。如果同理心对人工智能的未来至关重要,不用担心,技术奇点距离我们仍然非常遥远,不管微软“意外地”创造出多少黑化的人工智能。
翻译 / 何无鱼
联系客服