全球技术地图
创新丨前沿丨科普丨资讯
我们只能期待,当谷歌不断壮大,它的良心不会随之消失。
勿作恶。
这个短句自2000年以来就一直是谷歌公司的座右铭。它甚至曾是“谷歌行为准则”的开篇之句——注意了,曾经是。上周五小发明网(Gizmodo)报道称,四月底五月初时,谷歌将其行为准则中几乎所有的“勿作恶”这句话都删去了,只保留了结尾的最后一句。
这次删减看起来微不足道,但却可以看做是一个新的信号,标志着谷歌道德重心的转变。因为现在的谷歌绝不仅仅只是为我们最重要(或者最愚蠢)的问题提供答案,所以这个转变可能意味着人类未来要有麻烦了。
考虑到谷歌现在对我们生活所产生的巨大影响,我们不禁要问,谷歌将如何利用自己巨大的权力呢?是用在好的方面还是坏的方面呢?我认为答案是后者,以下是谷歌转向消极的三个迹象。
善恶的评判当然是主观的,一个人的“恶”可能对于另一个人来说只是道德上的灰色地带。但是,赋予无人机以杀人的能力从道德上讲一定是邪恶的,而这就是谷歌最近在做的一个副项目。
今年三月,有新闻爆出谷歌参与了美国国防部的“Project Maven”计划——一个研发用于战争的人工智能无人机的计划。于是,数千谷歌员工上书抗议,上周,有些人甚至辞职以表达他们的强烈不满。
但谷歌仍然执意推进该项目,其员工向瘾科技网站(Engadget)透露,谷歌似乎对军事项目越来越感兴趣,却越来越忽视员工的想法。
编造谎言是道德上的另一个灰色地带,而谷歌似乎正乐于树立这样的导向。谷歌的员工告诉瘾科技网站(Engadget),公司不像以前那样对他们开诚布公了,同时,谷歌对公众的透明度也不如以往了。
本月早些时候,谷歌演示了一项谷歌助理的新功能Duplex——一项能够代替用户在日常生活中打电话的人工智能技术。有人断言此次演示中的人工智能是造假的,然而就算不是,这项技术也是具有欺骗性的,因为人工智能在演示的电话中是不可能透露自己非人类的身份的。
牛津互联网研究所数字道德实验室的研究员托马斯·金(Thomas King)告诉了TechCrunch他对这个人工智能电话展示的看法:“谷歌的实验看上去好像是被设计用来欺骗的。”“(然而,)就算他们并不是故意要这么做,人们还是可以指责他们出现了疏漏,没能做到保证人工智能不会欺骗。”
谷歌工程副总裁尤西·马蒂亚斯(Yossi Matias)在发布后对CNET新闻说:等软件推出后,人工智能“可能”会让人们知道它们是人工智能。然而这一切只能等软件面世后,我们才能知晓。
上周,The Verge掌握了一段2016年在谷歌内部流传的视频。该视频的名称是“自私的打算”,这段视频展示了未来谷歌的样子:那时候,谷歌将不只仅仅收集用户的数据,还将利用这些数据,最终达到控制人们行为的目的。
当The Verge采访谷歌时,谷歌的发言人并没有否认这一令人毛骨悚然的事情,而是指出这一切仅仅只是理论上的设想:
“如果这令人感到不安,我们很理解,,但是它最初就是这么被设计的。这是几年前由Design团队设计的思想实验,该实验想要用“投机设计”的方法来发现那些让人不满的点子和构想,从而引发人们对此的讨论。但是,这和任何现在或者未来的产品都无关。”
不过,我们还是不难看出,从技术上说,谷歌完全可以创造出这个“自私的打算”。此外,那段视频也指出谷歌会改变人们的行为,使其与“谷歌的价值观”一致,比如说环境的可持续性。如果谷歌的价值观改变了,那么这个“自私的打算”也会改变其引导用户的方向。
当然,“自私的打算”有好有坏,谷歌也正在朝好的方面做着努力:给保护环境项目捐钱并提供资源、给儿童提供受教育的机会,以及给予弱势群体更多的支持。
然而,鉴于谷歌是如此的强大,如果它决定“勿作恶”不再是其一个值得追求的目标,那将意味着没有人能知道它会做出怎样的破坏。就目前而言,我们只能期待,当谷歌不断壮大,它的良心不会随之消失。
作者丨Kristin Houser
编译丨IITE
选自丨Futurism
联系客服