打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
谷歌大脑提出EfficientNet平衡模型扩展三个维度,取得精度-效率的最大化!

今天要跟大家重磅介绍上午谷歌大脑新出的论文《EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》,在模型扩展时平衡好深度、宽度、分辨率,取得精度、效率、模型大小的最大化。

借由此简单有效的模型扩展方法,作者在使用神经架构搜索得到的基模型上扩展出一系列EfficientNets模型,达到了更好的精度和效率的平衡,其中EfficientNet-B7模型在ImageNet数据集上达到 state-of-the-art 84.4% top-1 / 97.1% top-5 精度,并且相比目前最好的方法模型size减小8.4倍,速度快6.1倍!!

简直是神级操作!

该文已被ICML 2019录用,这可能是一篇要改变整个深度卷积网络模型设计的论文了。

下面是作者信息:

两位作者均来自谷歌大脑。

下图是作者使用该文方法得到的7个EfficientNets与目前知名的state-of-the-art模型精度-参数量的比较:

可见本文得到的模型在相近模型大小时,精度高于所有之前的竞争对手!

什么是模型扩展?

模型扩展是借由改变深度卷积网络的宽度、深度、分辨率进而寻找更高精度模型,或者寻找精度-计算量-模型size满足一定要求的模型的方法。

下图展示了这一过程:

其中最右为作者提出的方案,即在三个维度(宽度、深度、分辨率)进行复合扩展。

(模型扩展是很常见的操作,只是之前大家总是关注在宽度和深度,作者在这里将分辨率纳入考量)

这是作者做的实验,单一调整一个维度能够获得精度提升,随着参数调的越大,精度增益越平滑,即改进不再明显。

下图为同时调整深度和分辨率获得的模型的结果,可见联合调整能够获得更好的精度增益曲线。

方法

作者就是把深度d、宽度w和分辨率r纳入一个受限的搜索空间,如下:

对于特定的基模型,采用如下两个步骤获得一系列扩展模型,从计算量参数量小精度低到计算量参数量大精度高的一系列模型。

下面是作者用神经网络搜索得到的基模型EfficientNet-B0。

实验结果

实验结果实在是太靓丽了!

这是作者得到的七个模型与现有最好的算法在ImageNet数据集上的比较,在精度超越的同时,计算复杂度和参数量都下降了一个数量级!

下图为在MobileNets和ResNet上与单一维度扩展的比较,计算量相近的情况下,本文方法精度表现出一致性的更高!

在实际的硬件上计算同样验证了理论的结论:

作者用得到的新模型在8个数据集上进行了迁移学习实验,取得了5个state-of-the-art的结果,而且计算量和参数量依旧小一个数量级!

该算法虽然简单,但结果实在是太吸引人了,强烈推荐大家关注!

论文地址:

https://arxiv.org/pdf/1905.11946v1.pdf

开源地址:

https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet

专业交流群

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
效率提升10倍,参数减少 88%的牛逼图像识别模型:EfficientNet
EfficientNet 解析:卷积神经网络模型尺度变换的反思
谷歌 AI 新方法:可提升 10 倍图像识别效率,关键还简单易用
Facebook最新力作FBNetV3来了!相比ResNeSt提速5倍,精度不输EfficientNet
bioRxiv | 结合结构和细胞图像数据预测化合物作用机制
2019 年上万篇论文发表,这 14 篇脱颖而出!
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服