原文:
Reformer: 局部敏感哈希、可逆残差和分块计算带来的高效
单个GPU上可运行的Transformer,谷歌&伯克利最新研究开源 | ICLR 2020
黄爸爸好 阅39
Transformers 发展一览_transformer发展
和相品 阅3
哈希算法、爱因斯坦求和约定,这是2020年的注意力机制
taotao_2016 阅135
加性注意力机制、训练推理效率优于其他Transformer变体,这个Fastformer的确够快
汉无为 阅13 转2
一年六篇顶会的清华大神提出Fastformer:史上最快、效果最好的Transformer
bawuping 阅99
Fastformer:简单又好用的Transformer变体!清华&MSRA开源线性复杂度的Fastformer!
我爱计算机视觉 阅93
想把半本《红楼梦》搬进ChatGPT输入框?先把这个问题解决掉
天承办公室 阅2
内存数据库中的索引技术
看风景D人 阅79
数据结构基础概念篇
袁先森lemon 阅48
干货 | 除了生成文本,还可以补全图像、生成音频序列的稀疏 Transformers
周婷111 阅309
局部敏感哈希(LSH)
秋水共蓝天 阅561 转2
局部敏感哈希LSH
码农书馆 阅386 转2
3.9MB超小超强文本识别模型,支持20000个字符的识别,平安产险提出Hamming OCR
极市平台 阅39
在注意力中重新思考Softmax:分解非线性,这个线性transformer变体实现多项SOTA
x_box361 阅2
深度学习|transformers的近期工作成果综述
智能信息 阅29 转2
一张图总结大语言模型的技术分类、现状和开源情况
mrjiangkai 阅152 转3
首页
留言交流
联系我们
回顶部