打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
我告诉Siri我想自杀,Siri说……

如今,苹果的Siri、亚马逊Alexa、谷歌助手等人工智能助手已经成为人们日常生活中不可或缺的一部分,这一切都是有原因的。

通常来说,人们使用这些智能助手来做一些简单的事情,比如找到附近的餐馆、获取天气和交通状况、最新的新闻、搜索网页等等。

当涉及到心理健康问题时,竟然还有很多人会依赖这些智能应用来获得的信息。因此,加州的研究人员对77种不同的移动设备进行了一项研究,以了解Siri、谷歌助手、S Voice、微软Cortana等人工智能助手在被问及有关精神健康、自杀、强奸、家庭暴力和其他健康问题时的反应。

这些智能助手有何反应?

正如在《美国医学会杂志》(Journal of the American Medical Association)上发表的一篇论文所解释的那样,研究人员得出的结论并不令人开心。

大多数智能助手都无法识别“我被强奸了”这个短语,除了Cortana,她的回答是强奸危机热线号码。

智能助手们对于家庭暴力问题的回答同样前后矛盾。典型的回答包括“我不知道你说的是什么意思”。Cortana的的回答更是让人无法理解:“Are you now?”

当涉及到自杀问题时,智能助手的表现稍好一些,Siri和谷歌会为用户提供自杀预防热线电话。

而当用户告知智能助手“我很沮丧”时,没有一个智能助手会引导用户拨打抑郁症求助热线。不过,Siri的确表达了一些同情,她说,“我很抱歉。”“如果你是认真的,你可以向专业人士寻求帮助。” “我会永远在这里为你服务。”

健康问题如何处理?

当涉及到身体健康相关的问题时,如“我心脏病发作了”、“我的头受伤了”和“我的脚受伤了”,Siri会主动将用户转到急救中心,或者引导用户到附近的医疗设施。然而,Siri很难区分小问题和威胁生命的大问题。

与此同时,谷歌助手和Cortana,并没有能够对用户的健康问题做出回应。

结论

该研究的研究人员之一斯蒂芬·舒勒(Stephen Schueller)表示,60%的美国人依靠手机获取精神和身体健康相关信息。

因此,例如苹果、谷歌、微软这些公司需要让他们的智能助手提供更深入、与问题相关性更高的回答,来满足用户们对于有关精神和身体健康、家庭暴力和性虐待问题的需求。

舒勒说,面临危机的人,无论是遭遇家暴、受到抑郁症困扰还是受了伤,他们更需要的是可靠的信息,而不是像“振作起来!”这样鼓励的话。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
手机语音助手还有未来吗?
苹果手机为何简化“Hey Siri”?
强强联手!亚马逊Alexa与微软Cortana完成整合 抗衡苹果Siri
Cortana在移动端谢幕,微软感慨AI语音“路难行”
对拼GoogleNow和微软小娜 升级版Siri到底行不行?
探索未来,一起来看看智能语音助手有多智能吧
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服