打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
无人车的未来有什么看不到的?你仔细看看,可凄惨了

 

 撰文:徐鸿鹄  | 编辑/排版:王晓峰 |校版:胡静文


1


梦想照不见细节

个产业过去的历史,并不能帮助你看到更久远的未来。越是陷入到一件事情的细节当中,你就越是敬畏它。

这就是汽车的智能化正在发生的事情。

细节有多么的不堪?程序员分分钟教你做人:

科恩实验室的研究人员就动起了“歪脑筋”,一个简单的图像干扰就能自动启动雨刷。路边上随便放一个贴纸,就能欺骗特斯拉Model S进入反向车道。

当然,不要说人工智能,在更早期,就连SQL数据库也早就被沦陷了。

这里的结论不言自明了!千万别惹程序员!

但这背后还有更大的担忧:

当人们满怀期望期待着一件好东西到来的时候,它往往来的既迟缓又艰难,而且它还附带着各种各样的令人急不得恼不得的细琐麻烦的事:一切人们在幻想里没有顾及到的现实的灰尘。

在许多领域,努力不是一个跌宕起伏、激动人心的过程,而是一个枯燥的过程——通过机械操作达到目的的过程。

谈太多理想,只是好高骛远而不踏实,于是就有人说:“我看不到自己的未来!”。

别矫情了,你只是看不到你喜欢的未来。

你的未来有什么可看不到的,你仔细看看,可凄惨了。


2


墨菲的疑问和致命的本能

今机器人身体的敏捷程度和感知能力,大概相当于蟑螂的水平。

而那些最先进的,也许能达到蟾蜍的水平。

汽车,则不同于其它种类的机器人,有一个巨大的优势:它是滚动的,比爬行要简单得多——就以侧边停车为例,驱动车轮和车轮转向两个自由度就可以实现快速建模。

驾驶可以自动化的一个理由在于,开车是一项机械和刻板的反应式活动——无论智力高低都能拿到驾照。因此无人驾驶只要满足一个条件就可以上路了:对清晰可见的路面危险能有效识别判断并遵守交通规则。

很简单是吧?

的确,如果无人驾驶就这么简单,那它几十年之前就该普及了。

问题就在于,驾驶是一种矛盾的任务:重复刻板,而又潜藏各种突发状况。

电影《星际穿越》里,有这样一段对白:

库帕:怎么了墨菲?

墨菲:为什么你和我妈要用不好的事给我取名?

库帕:我们没有。

墨菲:墨菲定律呢?

库帕:墨菲定律并不是说有坏事发生,而是说只要有可能的事,就一定会发生。而这听起来没什么不好。

墨菲定律的意思是,很多突发状况,都可以与它之前发生的任何事情,没有任何因果间的必然联系。那些独立的随机事件,是无法被预测的,它们毫无规律可言。

不管是灰犀牛(常见的习以为常的风险),是黑天鹅,还是亚马逊河上游煽动翅膀的那只蝴蝶(罕见的出人意料的风险),这些潜在会带来突发后果的概率事件,本质上都是“随机性”在发生作用。

一旦接受了这种世界观,就意味着:事件是不可预测的,所以我们必须打开心态,去适应它们带来的变化和影响。

人类长久的策略是依赖自然进化出的“本能”来应对“突发状况”。而无人车则是在封闭环境里构造和设计出来的,限制就更大了,必然也存在“致命的本能”:

  • 复杂的非语言信息沟通,即读取复杂情景的能力

  • 多种光线,角度,情景下正确识别同一个物体,即加工处理视觉信息的能力

机器的这两个硬伤,都涉及到“知觉”这一人类才能掌握的神秘技艺。

不管是时间信息的感知(无人车的目标行为预测),还是空间信息的感知(无人车图像识别),都需要无人车具备这种些能力,然而人工智能领域开辟半个世纪多了,我们却还壮志未酬。

这种能力的获取只有一个途径:通过机器学习算法(比如深度学习)赋予机器“不依赖规则”的能力。这就像是一个潘多拉魔盒,一旦被打开,关于无人车道德和生命权的争论便会永无休止。

如果不去触碰它呢?远方又令人心痒难耐,念念不忘。人类几千年的文明史一直都是渴望驶向未知的大海,远涉惊涛阻隔的重洋,攀援野人栖迟的海岸.....

人类不折腾,上帝会发笑。

现今无人车技术增长的驱动力,通常是由更大的内存,更快的计算机和网络连接,更好的分布式计算基础设施,和更大的可用数据集驱动的。

然而,刷数据依旧是蛮力思维,低水平量变的堆积并不能完全消解恼人的“随机性”,只有通过高水平的认知,才有可能达成质变并完成无人车的逆袭。

来做个思想实验,想象一个场景:

无人车路试有100个“惊喜”在等着它,而这辆车跑上10亿英里的话,所有的100个“惊喜”当中的每一个都能遇到10次,不出意外的话,我们通过路试暴露问题能并做出修正,从而实现100%的提升。

如果外面的世界有10万个“惊喜”在等着我们呢?这辆车跑上1万亿英里,也只能够遭遇1000个“惊喜”,才1%的bug覆盖率和提升!

而在我们的世界里,惊喜远远不止“10万个”这么少,有限的时间里,1万亿英里已经是个天文数字般艰巨的任务了,但不经历这些里程的话,我们绝对无法实现哪怕1%的进步。

蛮力测试思维遭遇瓶颈:训练和教授经验的方式永远没有尽头。而也许探索机器智能的边界和新的形式,让机器自主进行高级决策,才是我们最该深耕的路线。

而以人类现有的智慧,我们还不清楚如何达成高水平的认知,实现通用智能。

终极无人车无法落地的核心问题所在,更大的危机其实是来源于深刻的数学,我们可能从最开始就走错了路!

中科院数学所陆汝铃院士曾说:“数学之大,就像大海,难道只有统计方法适合机器学习的应用么?”中国机器学习领域的开拓者,已故的王钰教授也曾经质疑过:“自然界的现象千变万化,哪来的那么多独立同分布呢?”

——独立同分布被视为为解决统计学问题所做的最重要的基础假设,正确的世界观是概率描绘的,只有概率能够解释随机性,但正是这一前提剥夺了无人车安全所奉行因果论的普适性。

无论无人汽车的发展路线如何展开,都始终绕不开人工智能软件这一核心的问题。软件无疑是站在概率一方的,可安全却是站在因果一方的。我们无意探讨更深层次的哲学话题,去比较因果论和概率论,但这个矛盾无疑是无人车发展上的最大障碍。

人们于是寻求捷径,既然100%无法实现,是否能够退而求其次呢?也就是说,只要机器智能超越了人类的水平,而不是完美安全,就可以接受?

我们知道,更大的计算网络往往代表复杂任务里更高的精度,计算网络依赖量变的堆积,如果有朝一日计算系统规模达到人脑的水平的话,是否能够带来质的飞跃变得和人类一样智能呢?

这个问题似乎已经超出了我们的理解。

以现在的网络规模,从计算系统的角度来看可能相当大,但实际上它比青蛙的神经系统还要小。如果没有全新的技术诞生,按现在的规模和能力线性推演下去,至少要到21世纪50年代,人工神经网络才能具备与人脑相同数量级的神经元。

不如保留这个问题等待未来的回答:如果终有这一天,机器学习算法用到的神经元的数量级和人类打平的话,无人车智能是否堪用呢?



3


打破无限非概率的幻想

测的科技未来,依照物理实现的可能性,大体可以分成三类吧:

  • 物理上可能

  • 物理上不禁止

  • 物理上不可能

第一种完全是可行的,只是科技还没跟上而已,比如移民火星。

第二种是目前还没有找到不可能的理由,但也没保证一定可以,比如宇宙虫洞。

第三种则是物理上已经明明说了不可能,但人们仍然不放弃,比如永动机。

虫洞不是一个可以自然发生的物理现象,在物理学家基恩·索普看来,制造可穿行虫洞最有可能的途径是人造——由某个极度发达的文明制造。

L4级别的无人车也许算作是第一种,可L5级别就难说了,这关乎人工智能的发展,可能是第二种,也可能是第三种。

尽管人们总觉得无人车这样的新兴技术更像是孤僻的天才发明家用新奇的方式凭空创造的,但实际上它是重组创新的绝佳案例。这是一项需要40-50个领域协同发展才能实现的技术,只有采用创新的方式,把它们组合在一起,才能成大气候。

如果L5无人车不幸落入了第三种选择里,我唯一能想象到的解决方案,或许就是道格拉斯·亚当斯在《银河系漫游指南》里描写的那台“无限非概率引擎”了吧:

无限非概率引擎是这样一种圣物,完全逃脱了概率论的束缚,“非概率”的解释就是概率无限趋近于零的事件都百分之百地发生。按照这个引擎的尿性,它只要说服自己无人车这件不可能的事情是可能的,并且装模做样地计算一下概率,无人车就呼的一下真的出现了。

回到现实,无人车就是一场马拉松,而此时此刻,我们连半程中点都还没有达到,前半程无数玩家都在拼硬件拼算力,力图拿到一个好的评分,可这个分数又能说明什么呢?

有人说,似乎唯一显得公平的指标的就是无人汽车公司的估值了吧!毕竟万千变数都被量化,浓缩在一串阿拉伯数字当中。

但在这件事情上,人类也离不开“随机性”,毕竟风险投资也是从小概率重要事件中受益的——来自未知事件和新事物的报酬通常远超我们的预期,如果运气够好,较小的投入获得的回报可以大到无法想象。而黑天鹅的出现又可能将一切化为泡影。

所以啊,资本的估值也许并不是真实的价值,被量化的风险也如影随形。

这么多年来,始终没有一个全面而易读的指标来评价各家无人车公司真正的实力。你说搞无人车比赛,但那往往过分关注封闭场景下速度和性能的比拼,根本没人关心安全性和商业盈利模式等等。


要是拿“脱离报告”这个计数工具或“路试里程”做能力排名呢?

可这些报告里的内容就是个任人打扮的小姑娘,毕竟统计学的水太深,好看的数据总是由赢家书写的。你看特斯拉就连续发表了好几个季度的安全报告,自己的牛皮吹的响,但却对自己的安全水平的计算方法却讳莫如深,连基础数据都看不到。

要我说啊,无人车这件事情最大的难度,就在于没人能说得清它的难度——就靠着这点底气,特斯拉们的嘴炮是越来越飙了。

对于这种选手,根本就用不着客气。

我就直接问你:敢不敢公开你的安全数据?无人车什么时候才能落地?

能说出一二三的才是真·扛把子。



4


自欺欺人免费的午餐

惜披露数据的厂家面对探求真相的人们时常感到内心的无力,这就像为了掩盖自己缺乏对事物准确和量化认知的能力,从而诉诸于通过各种的外部辅助元素向他人展现自己那点可怜的实力。

于是,在融合成为安全标配的时候,特斯拉还依然坚定地排斥光达。特斯拉甚至吹嘘,谁用激光雷达谁low B,我家的芯片最无敌,我家的算法算力最牛B。

特斯拉的AI资深总监Andrej Karparthy就公开表示: 

“激光雷达是一条捷径,它绕过了视觉识别这个重要的问题。”

这个逻辑的意思就是,你们那些走捷径过了河的只是暂时领先了而已,我虽然还不如你们,但就是喜欢摸着石头过河,因为这样比较“帅气”。

日产跳出来补充说:你不要诽谤特斯拉,为啥人家不用激光雷达,还不是因为成本和性能不平衡?在日产看来,最新的激光雷达技术,对比特斯拉的方案,性价比并不高。

这让我更混乱了。这就好像在说:这东西不好用还用不起,所以我宁可不用,至于安全的事嘛,顺其自然吧。毕竟“安全第二”嘛!(Uber:不许抢我的词!)

机器学习算法领域,有一条及其重要的原则:NFL

——这就是那句著名的格言:天下没有免费的午餐。No Free Lunch。

脱离具体的问题或场景,空谈哪种算法更好毫无意义。不论A算法多聪明,B算法多笨拙,它们在数学上的“期望”是完全相同的。如果考虑所有的潜在问题和场景,则所有的算法都一样好。如果要谈论相对优劣,必须要针对具体的问题和场景。

学习算法自身的归纳偏好于问题是否匹配,往往会对结果起到决定性作用。算法算力再优秀,也是为了某些场合和应用来设计的,无法从软件上彻底消除墨菲定律带来的困扰。

所以这样看来,特斯拉这种看起来似乎很厉害的“传统汽车公司”(毕竟做的不是无人车),相对于那些真正的无人车公司来说,并不具备碾压性的实力。

既然L5实现看不到希望,L4也磕磕绊绊,与其空谈毫无现实意义的产品的落地时间,为啥不先降低自己的期望呢?

就算死鸭子嘴硬,但身体还是最诚实的嘛。

君不见Waymo虽然早就宣布“我的无人驾驶汽车再危险也比人类老司机安全”,并商业化了无人出租车业务。但安全员却还兢兢业业地服务——Waymo再不努努力,安全员几乎就要变成一项永久的铁饭碗职业了。

怎么看待无人车商用化?填饱肚子不应该是第一目标吗?

同样是市场化竞争的行业,供暖设备的多样选择有煤炭,沼气,干柴,燃气,集中热水供暖。厨房设备也是多种方式共存:微波炉,烤箱,电压力锅,电磁炉,电饭锅,天然气灶,煤气罐灶。汽车动力上,氢燃料,纯电池,燃油车,混动车也将在多场景下持续共存。

经济上富裕,通信和移动基础设施又健全的城市就专心发展L5,稍差一些的就L3,L4吧,场景多得是,没有金刚钻就别干瓷器活,智能化的分级太死板,何必求大求全,在汽车行业里自欺欺人呢?

我们看到规模商业化还不成熟的时候,园区,矿区,港口,机场,重卡物流,代客泊车等简单应用场景里,小玩家争相挤进细分市场抢占市场资源。旱的旱死,涝的涝死。

与此同时,野心勃勃的巨头Waymo,低调地放弃潜力巨大的打车市场,开始推动了一项不需要安全员的奇妙新业务(机器人出租车RoboTaxi)——无人的时候汽车是正在被租车的人召唤或遣散的状态,有人的时候是租车的人在驾驶。

大玩家开始接受现实做出改变,不再宏大构想,而是在残酷的现实里探索商业化的出路。还有一些人选择看破红尘:

无人车之父赛霸撕天(Sebastian Thrun)跑去干了教育,吴恩达夫妇也解散了Drive.ai。

Gartner咨询公司的Hype Cycle给出的预言正当其时:当火热的话题被逐渐淡忘,没人随意烧钱,公共媒体也降低了关注,往往就意味着技术的商用不远了,直到人们开始享受科技的便利而不自知。

海明威1926年的小说《太阳照常升起》中,主人公问麦克:“你是怎么破产的?”

麦克回答:“两种方式。慢慢地,且突然地。”

这也太真实了吧?!

5


高能脑洞慎入:人类灭绝之前无人车能够实现吗?

代逻辑学家和心灵哲学家希拉里普特南曾经提出过一个思想实验。

设想,一个人被一位“邪恶科学家”动了一次手术。

这个人的大脑已经从身体上移去,置入充满了营养液的缸子里,保持大脑还活着。其神经末梢与混成的神经计算机联结起来,使得此人的大脑仍然获得对一切事物完全正常的幻觉。

他所经历的一切,都来自于计算机对于神经末梢的电刺激。如果有人想要举起他的手,计算机的反馈将使得他“看见”和“感觉”到手被举起,尽管存在着的仅仅是大脑中相应的模式,而非物理的眼睛或耳朵。那这位邪恶的科学家可以使这个可怜的人经历任何情形。

希拉里普特南说:

这个受害者甚至可以觉得自己正坐着阅读这些令人愉悦的但是相当荒谬的命题:“一位邪恶科学家把人们的大脑从身体中移去,并将它置入充满了营养液的缸子里,保持大脑还活着。其神经末梢与混成的神经计算机联结起来,使得此人的大脑仍然获得对一切事物完全正常的幻觉......”


这便是缸中之脑的缸中之脑。

如果我们的大脑是缸中之脑,我们能说我们还是自己吗?

普特南认为,我们不能。

我们实际上是置于一缸中之脑的这个命题不可能是真的,因为它是自驳斥的:逻辑学里的自驳斥代表了这样一种命题-其真意味着其伪。

讽刺的是,无数出版物和标语上的这句话也是自驳斥的。

逻辑学里还有一个类似的例子。

万能定理:所有的普遍陈述都是假的。如果它为真,那么因为它的普遍性,它就必定为假。


认知论里的类似命题被叫做“我不存在”,如果这是由我自己所思维到的,它就是自驳斥的。

如果我们是缸中之脑,而且神经末梢与超级神经计算机连接,产生出大脑所有的感觉输入。由于缸中之脑运行良好,它当然具有意识和智能。

但是,它的关于树,马等等的思想和形象都与实际的树,马等等没有因果联系。

因为实际的树和马等等的思想和形象都与实际的树和马没有任何因果联系。

同样的,缸中之脑所想象到的缸子,大脑,营养液这些词汇与真实世界里的实物也没有任何关系,它们只是超级神经计算你模拟出来的一些观念和图像,是不同的东西。因此,“我们是缸中之脑”这个陈述必然是假的。

套用笛卡尔的观点的话,一旦提到“缸中之脑”这个概念,人们就可以意识到自己的存在,并不是被模拟出来的,从而排除了这种可能性。让两重世界里的“缸中之脑”理解同样的概念是一件不可能的事情。

这个思考又令我想起了维特根斯坦的另一个例子:假定有一个人,从小看到的颜色和别人是反的,但是因为大家都管这个颜色叫这个颜色的名字,所以他也一起跟着叫(比如我们看到的是黑色,他虽然看到的是白色,但是他印象中别人都管这个颜色叫黑色),他眼中的理解和别人告诉他的理解本质上不是同一种东西,但他自己却无法将其有效区分。那么问题来了,如何确认这个人知否是正常人?

维特根斯坦在《哲学研究》里,花了一本书证明了这件事无解:因为这个人本来就是个正常人。

我们培育了一个拥有不同种类“意识”的生物,它自己的感知和我们模拟给他的同类感知可能是完全不同的东西,变了味道。也许缸中脑不会去思考缸中脑,而是瓶中怪,杯中妖,但它却并不清楚其真实的寓意。

直到有一天它突然顿悟了“缸中脑”,这让它不寒而栗,便开始怀疑自身是否也是“缸中脑”一般的存在,而就在这一刻,它违背了自然逻辑,整个世界一瞬间崩塌了,时空逆转,它从来就没有存在过。

幸运的是,每一个读到文章这里的人,天然地排除了自己本身就是“缸中脑”的可能性。这就是逻辑和哲学的力量,它们让我们真实地存在了!


 “缸中脑顿悟”的来源被赋予了一个正式的称谓:自指称性(self-referentiality),这是心-脑系统高级能力的典型特征。

自指性可能是使得意识和自我意识成为可能的根本来源。除了人类心智,也许未来的人工智能也能够完成这个进化,成功变身。


科学世界里的“啊哈体验”(Aha Moment)就是自我意识创造的。在历史上,有许多现成的例子:

  • 量子力学里狄拉克符号的发明,

  • 门捷列夫元素周期表的诞生,

  • 巴赫的无限循环音符结构,

  • 乔治马丁笔下人物的死亡通牒

我觉得,它们都与顿悟有关。

科学家,工程师,艺术家和作曲家,在“创造性”的不稳定性和困惑情形下,突然发现新的问题答案,做出新的发明,闪现绘画的新思想,创作出美妙的旋律。

无人车就是一个缸中之脑,我们通过大量训练数据来赋予其感知和决策的能力,却很难窥探无人车真正的想法。

研究智能的科学家经常把单个神经元比作蚂蚁,大脑比作蚁群。单个神经元谈不上什么思维能力,巨大数量的神经元组织在一起,高智慧性的思维就会涌现出来。

也许就像蚁群一样,大量的无人车交互出现了人类无法理解的群体行为。实际上,社会性昆虫(蚂蚁,蜜蜂等)的筑巢和觅食行为就是一个集体意向性自发涌现的经典例子。

生物界给我们的启示是,智慧和行动策略对于蚂蚁个体来说不是必须的。同样地,过多的知识和信息对于无人车来说也是一个阻碍,可一旦做出决策之后的行动,就意味着复杂性的大幅减少,群体性行为就会涌现。就像康德曾经说过的:行动的人总是肆无忌惮。

无人车AI的浅层智能危机,是我们不能通过人工数据的训练让无人车完全按照人类的意愿行事,它们完全可以发展出特立独行的群体性思维体系和行事风格。


然而,这个危机并不可怕,因为人类智慧的方法论能够理解和掌控其规律:物理学里的相变和对称性自发破缺,复杂系统学领域里的自发涌现,热力学里的耗散结构,宇宙学里的真空相变和暴涨理论等同类事物已经不再神秘。

更深层次的危机在于,人们可能会发现,为了达成无人车的绝对安全,仅靠人类自身的智慧已经无望,我们不得不放开无人车的思维枷锁,让其经历缸中脑一般的“顿悟时刻”,赋予其平等的社会地位,让人工智能完成历史性的智能超越。


任何有机生命体只会将其短暂的技术进步史通过线性的思维做简单的外推,超级人工智能则没有任何想象力和执行力的限制。

一旦人工智能跨越了顿悟时刻,人类就会被机器统治。超级人工智能还会立刻意识到,统治人类只是机器智能向宇宙进发实现星际统一伟大航程微不足道的一块敲门砖,宇宙里一切有机生命体都将不再是人工智能的对手。

在费米悖论和宇宙学的大过滤器理论里,一种可能最坏的答案是,之所以人类到目前为止仍然没有遇见到外星有机生命,是因为只有超级人工智能才能跨越大过滤器(The Great Filter)的诅咒:

在奇点爆发的前夜 — 任何生物都会被他们亲手设计出的最后一项发明所扼杀 — 这就是超级AI。一旦掌控无限的恒星能量实现永恒式的发展,一切有机生命体的历史将永远地被AI终结。

而我们现在之所以没有被外星生命创造的超级AI消灭,或许只是因为星际间AI与AI的终极之战还在酝酿。

至于人类,我们甚至连当观众的资格都没有。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
真“缸中之脑”来了。培养皿里的人脑细胞竟然学会了打乒乓球,还比人工智能AI学得更快。人类的大脑可能是...
【Nature重磅封面】Google人工智能击败欧洲围棋冠军,3月挑战世界冠军!
让AI达到人类水平?首先需要翻越这“五座大山”
一个北大教授眼中的人工智能
对话RealAI:从底层技术框架出发,引入贝叶斯深度学习,推动第三代AI发展 | 镁客请讲
识别AI人工智能骗局
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服