原文:
你没有看过的全新版本,Transformer数学原理揭秘!
邱锡鹏,这是Transformer最全综述
taotao_2016 阅201 转2
ICLR 2022 | 无需训练!As-ViT:自动扩展视觉Transformer
新用户0118F7lQ 阅15
经逆向工程,Transformer「翻译」成数学框架 | 25位学者撰文
520jefferson 阅5
「GPT-4只是在压缩数据」,马毅团队造出白盒Transformer,可解释的大模型要来了吗?
2016xing 阅3
不需要标注数据的语义分割!ETH&鲁汶大学提出MaskDistill,用Transformer来进行无监督语义分割,SOTA!
我爱计算机视觉 阅13
YOLOv4一作提出Transformer新架构:DPT!替代卷积网络做密集预测
x_box361 阅72
迈向更高效通用的加速之路:谷歌提出视觉和多任务MoE方法
江海博览 阅166
谷歌最新提出无需卷积、注意力 ,纯MLP构成的视觉架构!网友:MLP is All You Need...
长沙7喜 阅69 转2
从语言模型到Seq2Seq:Transformer如戏,全靠Mask
LibraryPKU 阅282 转2
CV之后,纯MLP架构又来搞NLP了,性能媲美预训练大模型
阿明哥哥资料区 阅4
首页
留言交流
联系我们
回顶部