打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
AI的下一个十年

最近深度学习的著名批评者Gary Marcus 发表了一篇牛文,The next decade in AI,  four steps towards robust AI .   指出未来AI发展方向。

这篇文章可谓是作者思想的集大成者,讲述了当下的深度学习如何可以整合经典符号主义AI的思想,让整个系统变得更加稳健, 具有真正智能体的泛化能力。

首先我们都知道深度学习最近遇到了很多的困难,所谓深度学习寒冬论此起彼伏。而其中最根本的问题, 莫过于个深度学习在数据的变化面前十分脆弱,很容易被加入的噪声糊弄。如何改善这个问题?深度学习大牛们其实给出了很多解决方案,比如加入各种各样的dropout, 在训练中进行各种数据增强,进行复杂的对抗训练。但是这些其实治标不治本, Gary Marcus这个符号主义大佬则提出了一个治本的方法, 那就是重启符号大法, 让AI真正掌握人类的知识。

我们来跟着大牛的脚步阅读下这个文章。首先当下的AI可以被称为狭义的AI。他们的根本问题是从数据里挖掘关联性,而不是因果。比如视觉系统难以理解一个翻倒的车还是车, 只要训练集没出现过。

还有比如著名的自然语言处理模型GPT-2 , 它可以给你一段很像人话的话。

然而一旦问题再问一步结果就开始啼笑皆非。比如以下非常基本的问题:

一个更可怕的例子则直接击中神经网络软肋:

你去看上面的表格,发现这显然是f(x)= x  这个函数 , 然而在神经网络眼中, 这个测试结果变成了这样:

明眼人一看就明白,这里的问题是神经网络无法把学到的东西泛化到和训练集统计规律稍有区别的地方,比如说当最后一位变成1它就傻了。或者说深度学习终归属于统计学习,独立同分布对于它来说就是生命线,脱离了它神经网络什么都不懂。

如果大圆是全部数据, 小圆是部分训练数据, 则当下AI的泛化是在小圆里而非全部大圆

这和人的泛化能力有着实质的区别, 因为人能够一下子就学到这个f(x)= x 的关系。

为什么人会有这种能力,仔细思考你会发现我们的大脑本来就善于发掘一些东西, 比如加减乘除法,各种有时间先后事物间的因果关系等。这就好比我们的大脑里早就配备了一系列的先验算子。它们帮我们理解了这个世界。如果不具备对f(x)= x 这种关系的先验, 我们几乎无法想象神经网络可以自己发掘这种规律,是不依赖于具体的统计区间而存在的。

那么如何赋予AI这种能力?Gary Marcus代表的符号主义AI提出了一个切实可行的道路,就是利用符号和关于符号的一套操作系统, 重新把知识和世界模型教给神经网络。 这个过程分为四个步骤:

1,  规定知识的基本形式  

2,  能够把基本知识整合成无穷多知识(涵盖整个世界)的操作系统

3,  通过知识组成成模型  

4,  利用知识和模型进行认知和推理  

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
几经沉浮,人工智能(AI)前路何方?
张钹院士:AI科学突破的前夜,教授们应当看到什么?
人工智能再次“升级”,你可能离失业越来越近了
阻碍AI发展的最大障碍是什么?
DeepMind最新研究登Nature,揭示AI时代科研新范式,开拓未知领域,带来全新挑战
什么是第三代人工智能,其发展趋势是什么?
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服