打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
根据达尔文进化论,只有最强人工智能算法才能生存

国际财经媒体Quartz报道,据谷歌和美国“开放人工智能实验室”(OpenAI)的一项研究,类达尔文进化论的神经进化理论可以帮助人工智能算法进化优化。

现代人工智能是为了模仿自然而生,其最主要的目标就是将人类天生的决策能力复制到计算机中。

受人脑工作方式的启发,近三十年来人工智能的发展都围绕着“神经网络”。神经网络的概念借用自神经生物学,将机器的思考描述为在神经元这种相互连接的数学功能单元之间的数据传递。但是,自然界还有其它一些好概念。计算机科学家目前正在重新审视一门古老的学科,并建议将进化过程引入到人工智能领域,以此来模拟人脑数千年的进化历史,这样可以帮助人们构建更聪明有效的人工智能算法。

但是,先让我们重温一下中学课堂学过的生物学。进化这个概念,是由查尔斯 达尔文(Charles Darwin)提出并由无数科学家不断修正发展的。进化论指出,生物遗传组成的细微随机变化都会给生物带来某种优势或者劣势。如果生物的这种突变让其能够生存繁衍,那么这种突变就会遗传下去;反之,带有这种突变的生物就会灭亡。在算法的世界中,与此相对的概念称为神经进化。人工神经网络复制学习具体概念的过程,而神经进化则试图复制人脑神经的进化过程---只有最强的(或最聪明)的过程才能留存。

虽然神经进化论是在20世纪80年代提出的,但随着研究人员深挖历史寻找机器学习的不同角度,这个理论得到了他们越来越多的关注。2017年2月,谷歌大脑(Google Brain)和非盈利组织开放人工智能实验室的研究人员各自发表了一篇关于这个主题的未评审论文。谷歌的论文是关于神经进化理论在图像识别领域的应用,而开放人工智能实验室则关注利用“工作者”算法来教会主算法如何有效地完成任务。

将生物学进化理论引入到已经很复杂的人工智能领域可能会让人困惑。如果要简单点,就可以把算法想象成马儿。马儿一生都在学习,但是评估马儿的指标却只有那么几条,譬如它们跑的有多快等。在图像识别领域,准确率就很容易评估,只是一个数字,相当于一匹马跑完一圈所需的时间。但是这匹马跑得更快的真正原因却相当复杂——涉及到让肌肉生长、耐力提升和甚至智力提高的庞大DNA网络。

谷歌团队设计了1000多种图像识别算法,这些算法都利用现代深度神经网络进行训练,用以识别图像库中的一类特定图像。然后,团队动用了250台计算机来测试这些算法。每台计算机选择两个算法并让其识别图片。准确率高的算法就“生存”下来,准确率低的就“杀掉”。“生存”下来的算法就会复制一份,并且该克隆算法(或者“子算法”)会有细微的改变——就如同人类的DNA在遗传过程中会随机改变一样。但是和生物进化中突变出现蓝眼睛和美人尖不一样,子算法的“突变”只是稍微修改了针对训练数据的处理方式,随后会用其母算法所用的相同数据进行训练。子算法会放回到这1000个算法池中,再次启动上述进化过程。

谷歌的研究人员发现,神经进化方法可以培育出准确率高达94.6%的算法。谷歌进行了四次这样的试验,每次进化出来的算法准确率都很相近。就如同自然界的进化过程一样,提升算法准确率的突变都被保留了下来,而降低算法性能的突变都被灭掉了。

在试验过程中表现出的不同还突出了一个共性问题。谷歌研究员兼论文合作者说,在试验中途,有些算法就停滞不前了,似乎不知道该继续进化还是去掉突变重新开始。他说这可以用自然界的翅膀进化作类比。“半成品翅膀可能对你帮助不大,但是完整的翅膀就可以让你飞翔。”

谷歌团队目前正在努力让他们的进化模型尝试各种突变,但是这比较棘手。团队希望模型只尝试有限的突变。研究人员解释说:“最坏的情况就是会产生很多半成品翅膀”。

谷哥的研究聚焦在图像识别上,他们测试了神经进化模型在处理生物大脑擅长领域的能力,也测试了它解决现代问题的能力。而开放人工智能实验室是利用更纯粹的进化模型来完成不同的任务。

开放人工智能实验室没有训练数千个算法只做好一件事,该研究团队希望利用“工作者”算法来训练主算法完成未知的任务,譬如玩视频游戏,或者在三维模拟器中行走等。这种方式不是主要用来教会机器如何决策,而是教会机器如何从具体信息中更有效地学习。进化算法监控“工作者”算法如何学习,而进化算法自身学习如何学习,以从同样的数据中获得更多的知识。

为了进行研究,开放人工智能实验室团队启动了1440个工作者算法来玩雅达利(Atari)游戏。工作者算法一直玩到游戏结束为止,此时,工作者算法会向主算法报告游戏得分。就如同谷歌团队所做的一样,得分最高的算法会被复制,并且会进行随机突变。突变后的算法会放入到这1440个算法池中并重复上述流程,好的突变算法会保留下来,不好的突变算法会被去掉。

这种方式也有其局限,最主要的就是工作者算法只向主算法汇报一个数字,即游戏得分。得分最高的算法存活下来,但是要让主算法掌握游戏中成功操作的步骤所要求的计算能力要高得多。(在生物学中,与此类似的就是蚁群:工蚁离巢外出寻找最佳解决方案;蚁后是信息的工蚁信息的集中器)。换句话说,开放人工智能实验室学到了很多关于成功的信息,但是对细节却知之甚少。

肯尼斯·斯坦利(Kenneth Stanley)是美国中加州大学(University of Central California)副教授,他联合创办的几何智能(Geometric Intelligence)公司最近刚被优步(Uber)收购,由此他加入了优步人工智能团队。他表示,在20世纪80年代,神经进化理论和神经网络是同等重要的研究领域。

“曾经有一个小部分人在思考人脑是如何产生的,人脑才是自然界生成的智能概念的唯一验证。”斯坦利说,“有些人认为,要实现这一点的最直接方式可能就是在小的人工大脑上运行的计算机中创建类似的进化机制。”

1986年,三位计算机科学家发表了一篇文章,描述从自己的错误中进行学习的反向传播算法之后,神经网络才开始引起人们的重视。这个算法大大提升了人工构建神经网络的性能,但是据说因为没有进展而导致资金被削减,人工智能的寒冬到来了,限制了这一领域的进一步发展。直到后来,研究人员和公司开始发文力推神经网络,让大型计算机科学圈无法拒绝这一令人激动的领域,神经网络才又开始发展起来。反射传播算法使得神经网络快速发展,让其开始理解更复杂的概念。这样的网络也被冠以“深度”二字,深度神经网络成了现代人工智能领域中最受欢迎的流派。

斯坦利说,“正因为如此,所以人们较少关注神经进化理论,而它是人脑进化的另一个分支。”

早在2002年,斯坦利还处于事业初期,写了一个名为NEAT的算法,可以让神经网络随着时间进化成更庞大更复杂的版本。相关论文在谷歌学术上引用超过1600次。2006年,斯坦利发布了Hyper-NEAT算法,可以让神经网络的进化规模更大。算法的灵感源自于DNA。DNA虽然只有3万个左右的基因,却是数十亿个生物神经元及数万亿个神经元连接的蓝图。

和斯坦利一样,开放人工智能实验室和谷歌在处理同一领域的两个问题。谷歌采用的混合方法结合了神经进化和反向传播等让深度学习非常强大的技术:教会算法如何在现实世界中作决策,使其进化,算法的进化版本所获知识更多。开放人工智能实验室的方法与生物学进化更相似。该研究团队只让每代中的随机化突变决定网络是进步了还是失败了,即进步只能通过随机进化实现。但这两种尝试都有非常明确的目标——识别图像,或者游戏中拿到高分。算法如何实现目标全凭“天性”。

“人类一生下来脑子里就有了权重值,并且这些权重终身不变。”斯坦利谈到开放人工智能实验室的工作,“就像是父母生了你,你又有了孩子,然后孩子的孩子,而他们天生懂微积分。”

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
在达尔文逝世的第 135 年,看进化论的“进化”
科学家为什么不认可进化论?
达尔文进化论危机,考古学家质疑,人类绝对不是进化而来!
现今科学早已证明人类不是进化而来的,更不是猴子变的,那人是从哪来的呢?
根据达尔文的进化论,人类还会进化吗?会进化成什么样?
考古发现人类进化断层,达尔文进化论是否成立呢?真像全在这里
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服