原文:
清华大学提出点云Transformer!在3D点云分类、分割上表现优秀,核心代码已开源!
Transformer升级之路:长度外推性与局部注意力
汉无为 阅597 转3
91.2%准确率!ViTAEv2:视觉Transformer新工作!更大模型、更多任务、更高效率
x_box361 阅303
EMNLP杰出论文 | 当注意力遇到RNN,五倍以上训练加速!
520jefferson 阅38
GPT3为什么会彻底改变人工智能?
大曲若直 阅104 转15
【组队学习】【28期】基于transformers的自然语言处理(NLP)入门
老马的程序人生 阅37
【Transformer】从零详细解读
印度阿三17 阅220 转2
一种架构来完成所有任务—Transformer架构正在以一己之力统一AI江湖
处女座的程序猿 阅34
简单粗暴,容量大,效果好,1750亿参数的GPT-3
Mixlab交叉学科 阅196
清华大学提出LiVT,用视觉Transformer学习长尾数据,解决不平衡标注数据不在话下
天承办公室 阅2 转2
AI理解不了“他她它” 动词成突破口:机器人听到抹黄油就知道拿刀叉
莉莉在 阅1
一文搞懂ChatGPT相关概念和区别:GPT、大模型、AIGC、LLM、Transformer、羊驼、LangChain…..
liuaqbb 阅2316 转14
CVPR 2020丨图像超清化 老照片修复技术,拯救你所有的模糊、破损照片
taotao_2016 阅722 转3
深度学习|transformers的近期工作成果综述
智能信息 阅29 转2
阅读笔记
李xinle 阅234 转2
上车!带你一文了解GPT-2模型(transformer语言模型可视化)
黄爸爸好 阅799 转2
视觉 Transformer 的可视化|CVPR2021
极市平台 阅398 转2
谷歌最新提出无需卷积、注意力 ,纯MLP构成的视觉架构!网友:MLP is All You Need...
长沙7喜 阅69 转2
驱动ChatGPT的核心技术
山蟹居 阅36 转2
J Cheminform | ABT-MPNN:一种用于分子性质预测的基于原子-键Transformer的消息传递神经网络
智药邦 阅146 转4
第一次见有人把Transformer、BERT和GPT大模型讲的这么通俗易懂!
祈雨馆 阅765 转7
首页
留言交流
联系我们
回顶部