打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
Nat. Commun. |用于学习生成模型的神经编码框架

本文介绍了罗彻斯特理工学院计算机科学系的Alexander Ororbia和Daniel Kifer在Nature Communications上发表的文章:《The neural coding framework for learning generative models》。作者受大脑预测处理理论的启发,提出了一个用于开发神经生成模型的计算框架。在该框架内学习的神经生成模型在多个基准数据集和评价指标的实践中表现良好,与其他生成模型不相上下甚至优于其他生成模型。

1

介绍

根据预测处理理论的观点,大脑可以比作一个层次模型,其层次由神经元(或神经元簇)实现。如果将层次比作大脑的区域,则一个层次(区域)的神经元尝试预测另一层次(区域)的神经元状态,并根据其预测和观察到的差异程度来调整/纠正其局部模型突触参数。此外,这些神经元利用各种机制刺激/抑制彼此以促进上下文处理。作者认为,这种观点可以变成用于学习生成模型的强大框架。

在机器学习中,一个中心目标就是构建一个学习分布式表征的agents。生成模型是获得这些表征的一种方法。现有的生成模型基于人工神经网络,但是ANNs的运作和学习方式与我们之前描述的神经机制相差甚远。更明确的说,ANN生成模型用误差反向传播(backprop)进行训练。人工神经网络中的神经元分层排列,它们不会做出局部预测,也不会影响彼此的活动。此外,基于反向传播的模型中的突触调整是在非本地完成的,而在神经生物学网络中,这种调整通常被认为是在本地完成的。也就是说,神经元利用它们立即可用的信息(在时间和空间上),并不会等待遥远的区域来调整它们的突触。

本文提出了神经生成编码 (NGC) 计算框架作为学习生成人工神经网络的有效方法,解决了几个关键的backprop-centric问题。

2

结果

生成神经编码学习可行的自动关联生成模型

问题设置:代理必须学习 模拟样本数据集 X中概率分布。

典型的深度学习方法

一个前馈ANN,也被称为解码器,可以对输入的分布建模。解码器将输入映射为概率分布的参数。这个人工神经网络通常由L+1层神经元组成(L层隐藏层、一层输出层),第l层的状态用向量zl表示(如图1所示)

解码器的输出z0就是概率分布的参数。

图1 Backprop与神经编码的对比

反向传播学习vs类脑学习

虽然反向传播算法在训练ANN方面是普遍且有效的,但是它与我们当前理解的类脑学习不同,比如,在反向传播中:

  1. 构成前向信息通路的突触直接被反向使用以传达教学信号。

  2. 神经元需要了解和交流它们自己的激活函数的一阶导数。

  3. 神经元必须等待它们前面的神经元将它们的误差信号渗透回去,以便它们知道何时以及如何调整自己的突触。

  4. 误差反馈有一种独特的信息传播形式,它从系统的输出开始,然后返回输入层(见图 1a),它不影响神经活动(全局反馈路径问题)

  5. 误差信号与神经元一一对应。

本文的目标是提出一个建模和学习框架,该框架使用较少的与当前对类脑学习的理解不相容的机制。具体来说,本文的目标是解决前 4 个问题。

神经生成编码框架

相比基于反向传播的方法,本文提出的框架:神经生成编码(NGC),通过提出一系列的模型和相应的训练程序,提供了模仿上述几个神经生物准则和特性的方式。在这个框架中,每一个模型都被称为生成神经编码网络(GNCN),每一个GNCN模型包含L+1层神经元。第l层的状态用向量zl表示。任意一个GNCN模型的目标就是学习L+1个状态向量的联合分布。通过公式

获得数据的边缘分布。最后最小化 -log p(x)即可。

实验结果

为了评估本文的框架,作者在四个图像数据上比较了九种方法:高斯混合模型 (GMM) 和八个神经模型,其中前四个是基于反向传播的,后四个是 NGC 模型。实验结果如下图(图中标出了每个数据集上最优的两个数据)

此外,分别从原始数据集、GAN-AE、GNCN-t2-L∑中取样,结果如下图:

GAN-AE、GNCN-t2-L∑都产生相当优秀的样本图像。两者产生的图片的质量差不多,这表明NGC 模型可以与基于反向传播的生成模型竞争。

神经生成编码(NGC)可以产生强大的下游模式分类器

本文中生成模型本质上都是无监督的,这意味着通过尝试学习数据底层分布的密度估计,每个生成模型获得的表示可能证明对下游应用有用,例如图像分类。为了评估每个模型的潜在表示在区分样本时可能有多有用,我们评估了一个简单的对数线性分类器的性能,即最大熵。实验结果如下图:

在测试误差方面,NGC 模型与纯判别训练的 DSRN 相比具有竞争力(甚至在其中一种情况下优于 DSRN)并且优于所有其他生成模型。

文中还提供了定性证据,表明与 GAN-AE 相比,NGC 模型的潜在表示似乎可以将测试数据点更好地分离为看似独立的集群。下图是MNIST 数据库中 GAN-AE(左) 和 GNCN-t2-LΣ (右)的潜在代码的 t-SNE 图。

神经生成编码(NGC)可以进行模式补全

NGC可以补全部分损坏或不完整模式。为了测试每个模型补全模式的能力,我们进行了一个实验,其中每个数据集中每个图像的右半部分被屏蔽,每个模型的任务是预测删除的部分。在表 2 中显示了每个模型在每个数据集的测试集上的掩蔽均方误差。可以看到 NGC 模型在模式完成方面优于其他模型。

3

讨论

基于人工神经网络 (ANN) 的生成模型已经产生了用于从复杂的概率数据分布中估计和采样的很有用的工具。通过重新考虑这些模型如何操作和学习,从预测处理理论(大脑如何相互作用和适应其环境)中汲取灵感,本文证明了学习一个可行的生成模型是可能的。具体来说,本文提出了用于学习数据的神经概率模型的神经生成编码 (NGC) 计算框架,实现了 NGC 的几个具体实例,即生成神经编码网络 (GNCN)。GNCNs 不仅在估计数据边缘分布的任务上与几个强大的、现代的基于反向传播的模型相比具有竞争力,还可以泛化到他们最初接受训练的任务之外。

本文的工作让机器学习更接近计算神经科学,这样可能让我们更容易摆脱反向传播施加的限制,以构建能够模拟更复杂的人类认知功能。这样做还可能使机器学习社区在比生成建模更难的问题上取得进一步进展,例如主动推理问题和连续时间预测。

参考资料

Ororbia, A., Kifer, D. The neural coding framework for learning generative models. Nat Commun 13, 2064 (2022). 

https://doi.org/10.1038/s41467-022-29632-7

代码

https://github.com/ago109/ngc-learn

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
大脑皮层的神经编码理论与类脑计算方法(一)
如果深度学习是答案,那么问题是什么?
让AI“更聪明”的关键,埋藏在大脑处理知识的逻辑中?|智能渐近线 · 解读
新神经元增强记忆的新机制
“神经生成”研究催生最新人工智能算法
活体大脑中,记忆形成的可视化|大脑
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服