打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
简单粗暴,容量大,效果好,1750亿参数的GPT-3

据说需要耗费千万美元的资金才能训练一个gpt3

gpt-3使用的数据集容量达到了45TB,

gpt-3具有1750亿个参数,

一个gpt-3 模型可能需要要 700G的硬盘空间来存储。

近期大量研究工作表明,通过对大量文本进行预训练,并且针对特定任务进行微调,模型的性能可以在许多 NLP 任务以及基准测试中获得显著提升。

如上图所示,x轴的参数,参数数量级越大,准确率越高……

该研究使用了和 GPT-2 相同的模型和架构,包括改进的初始设置、预归一化和 reversible tokenization。

区别在于 GPT-3 在 transformer 的各层上都使用了交替密集和局部带状稀疏的注意力模式,类似于 Sparse Transformer

- Sparse Transformer 

理解自然语言需要注意最相关的信息。例如,在阅读过程中,人们倾向于把注意力集中在最相关的部分来寻找问题的答案。然而,如果不相关的片段对阅读理解产生负面影响,就会阻碍理解的过程,而理解过程需要有效的注意力。

这一原理同样适用于自然语言的计算系统。注意力一直是自然语言理解和自然语言生成模型的重要组成部分。

因此,Sparse Transformer只关注k个贡献最大的状态通过显式选择,只关注少数几个元素,与传统的注意方法相比,对于与查询不高度相关的值将被归0。

如上图所示,Sparse Transformer会把相关的信息处理成橙色部分,而蓝色的是传统注意力的做法(没有top k的概念)。原理图如下所示:


- 思考

学习了45TB的文本数据,掌握的文本规律足以超越目前所有的预训练模型。

但是,我在想一个问题,用足够大容量的模型,里面肯定学习到了很多冗余的规律

个人认为,算法的意义在于用足够小的参数,学习到更为普遍的规律

在实际解决问题上,确实,简单粗暴地堆量,自然就可以解决很多问题,这是量变引起质变的规律。




公号回复:社群
可加入mixlab的跨界社群
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
GPT3为什么会彻底改变人工智能?
比Transformer快4成!Meta发布全新Megabyte模型,解决算力损耗硬伤
大白话带你看懂 GPT,用好 ChatGPT
长文本表示学习概述
自注意力真的是Transformer的必杀技吗?MSRA否认三连,并反手给你扔来一个sMLPNet
【深度学习】Transformer长大了,它的兄弟姐妹们呢?(含Transformers超细节知识点...
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服