原文:
如何在NLP中有效利用Deep Transformer?
这篇论文让你无惧梯度消失或爆炸,轻松训练一万层神经网络
长沙7喜 阅150 转3
NLP中的变形金刚
hlhq1 阅123
神经网络为何非激活函数不可?
mynotebook 阅15 转2
谷歌提出最新时序框架--Deep Transformer
520jefferson 阅156
此「错」并非真的错:从四篇经典论文入手,理解Transformer架构图「错」在何处
天承办公室 阅8
Deep learning:十六(deep networks)
lzqkean 阅108 转2
微软亚洲研究院27篇论文入选AAAI 2019
taomaohu860706 阅51
可视化的BatchNorm--它的工作方式以及为什么神经网络需要它
x_box361 阅258 转3
动画详解Transformer模型注意力机制的概念与模型搭建
taotao_2016 阅586
Swin Transformer的继任者(下)
汉无为 阅1118
ChatGPT火了,来聊聊大语言模型
闲野之家 阅2106 转19
人机交互式机器翻译研究与应用
wenxuefeng360 阅672 转4
GPT技术的原理介绍及未来应用方向
成靖 阅333 转3
没有点积注意力就不香了吗?Transformer中自注意力机制的反思
学术头条 阅28 转2
引用超12万次的神级论文,开启了AI新时代!
SAIJIN 阅136
JCIM|我们能否快速学会用Transformer模型"翻译"生物活性分子
智药邦 阅7
为什么使用自注意力机制?
匿名黑客k 阅4902
支持108种语言的谷歌翻译如何用AI让翻译质量越来越好? | 雷锋早报
lindan9997 阅23
谷歌神经网络研究报告:Transformer解决翻译难题
老沈阅览 阅44
带你读论文 | 端到端语音识别模型
拓展延宽 阅107
首页
留言交流
联系我们
回顶部