原文:
EMNLP杰出论文 | 当注意力遇到RNN,五倍以上训练加速!
抛开卷积,多头自注意力能够表达任何卷积操作
taotao_2016 阅214
ACL 2019论文| 为知识图谱添加注意力机制
学术头条 阅115
一年六篇顶会的清华大神提出Fastformer:史上最快、效果最好的Transformer
bawuping 阅100
一文读懂「Attention is All You Need」| 附代码实现 | 机器之心
openlog 阅177
Google | 突破瓶颈,打造更强大的Transformer
工农子弟兵 阅830 转2
为节约而生:从标准Attention到稀疏Attention
黄爸爸好 阅134
计算机视觉中的注意力机制
Rainbow_Heaven 阅525 转3
驱动ChatGPT的核心技术
山蟹居 阅39 转2
从数据结构到算法:图网络方法初探
CDA数据分析师 阅64 转2
ICML 2022 NUS&NVIDIA提出完全注意力网络《FAN》,在分类、检测、分割多个CV任务上SOTA,代码已开源!
我爱计算机视觉 阅17
LLMs之FlashAttention-2:《FlashAttention-2: Faster Attention with Better Parallelism and Work Partition
处女座的程序猿 阅51
图解Transformer完整版(从输入开始一步一步演示了数据的流动过程训练过程是非常有用的知识)
山峰云绕 阅1049 转2
首页
留言交流
联系我们
回顶部