原文:
其实Mamba是一种线性注意力?清华大学黄高团队揭秘开视觉Mamba的真实面目!
颠覆Transformer霸权!CMU普林斯顿推Mamba新架构,解决致命bug推理速度暴增5倍
天承办公室 阅69
Mamba-2:超越 Transformer 的新架构,训练效率大幅提升!
黄爸爸好 阅18
谷歌和DeepMind提出Performer:重新思考注意力机制
michael1314520 阅1379 转5
一年六篇顶会的清华大神提出Fastformer:史上最快、效果最好的Transformer
bawuping 阅99
Transformer可以不需要Softmax?Kakao提出了UFO-ViT,性能高,计算量还小
我爱计算机视觉 阅40
信我!这里有普通人也能理解的 Transformer
山峰云绕 阅66
超越 Swin、ConvNeXt | Facebook提出Neighborhood Attentio...
汉无为 阅27
计算机视觉中的注意力机制
Rainbow_Heaven 阅525 转3
清华大学提出点云Transformer!在3D点云分类、分割上表现优秀,核心代码已开源!
阿明哥哥资料区 阅324 转2
驱动ChatGPT的核心技术
山蟹居 阅36 转2
没有点积注意力就不香了吗?Transformer中自注意力机制的反思
学术头条 阅28 转2
首页
留言交流
联系我们
回顶部