打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
训练好的神经网络,如何去解释它的结构和参数?

神经网络在这方面的名声不怎么好,经常被人嘲讽是“黑盒”。不过学界其实一直在探索神经网络的可解释性问题。这方面的研究其实不少,比如这个月(2018年3月)DeepMind刚在arXiv(预印本文库)上发了一篇《On the importance of single directions for generalization》(arXiv:1803.06959)。这篇论文背后的直觉很简单:通过删除神经元,来查看神经元的作用。

比如,之前发现了不少可解释性特别好的神经元,只对某类目标有反应,对其他目标都没有反应。

比如,下图左边的神经元,只对猫有反应,对其他所有东西都不感兴趣。(也许该叫铲屎神经元?)而右边的神经元,就没什么规律了(也许该叫迷茫的神经元?)

令人意外的是,DeepMind的研究人员发现,铲屎神经元和迷茫神经元对整个网络的作用没有明显差别。

从上图我们看到,对于大部分神经元来说,可解释性和其重要性并没有什么关系。而少数关键的神经元,恰恰是迷茫神经元!

所以,神经网络的可解释性,还是一个有待探索的问题。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
重新找回人工智能的可解释性
深度学习的可解释性
模型黑盒|机器学习模型的“可解释性”研究
网络神经科学中模型的性质和使用
谷歌推出神经网络可视化库Lucid,推进模型的可解释性工作
深度:我们真的永远也理解不了人工智能吗?
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服