原文:
91.2%准确率!ViTAEv2:视觉Transformer新工作!更大模型、更多任务、更高效率
告别CNN?一张图等于16x16个字,计算机视觉也用上Transformer了
taotao_2016 阅221
ECCV2022兼具线性复杂度和全局感受野的优点!谷歌&UT-Austin提出MaxViT,在多个任务上实现SOTA性能!
我爱计算机视觉 阅19
打破Transformer宿命,新秀VOLO开源!横扫CV多项记录,首个超越87%的模型
昵称73546223 阅78
重大里程碑!VOLO屠榜CV任务,无需额外数据,首次在ImageNet 上达到87.1%
黄爸爸好 阅88
谷歌最新提出无需卷积、注意力 ,纯MLP构成的视觉架构!网友:MLP is All You Need...
长沙7喜 阅69 转2
LeCun力挺,马毅教授五年集大成之作:完全数学可解释的白盒Transformer,性能不输ViT
天承办公室 阅6
如何做深ViT模型?NUS、字节:引入Re-attention机制,实现强大性能
michael1314520 阅26
一种架构来完成所有任务—Transformer架构正在以一己之力统一AI江湖
处女座的程序猿 阅34
一个神经网络学习一切!谷歌又放了个大卫星(附论文)
taomaohu860706 阅47 转2
一文搞懂ChatGPT相关概念和区别:GPT、大模型、AIGC、LLM、Transformer、羊驼、LangChain…..
liuaqbb 阅2343 转14
深度学习|transformers的近期工作成果综述
智能信息 阅29 转2
没有点积注意力就不香了吗?Transformer中自注意力机制的反思
学术头条 阅28 转2
ICLR2023 | 用提示学习进行多层次的蛋白质结构预训练
DrugAI 阅63
为什么使用自注意力机制?
匿名黑客k 阅4902
首页
留言交流
联系我们
回顶部