原文:
人大高瓴提出“注意力波”方法,70 亿参数 Llama 比肩 GPT-4
全新近似注意力机制HyperAttention:对长上下文友好、LLM推理提速50%
天承办公室 阅3
科普神文,一次性讲透AI大模型的核心概念
新用户73286115 阅31
ChatGPT以及其对汽车有什么影响?
邢开走 阅13
万字长文!何谓Agent,为何Agent?
taotao_2016 阅168 转2
Transformer的上下文学习能力是哪来的?
工程喵 阅4
经逆向工程,Transformer「翻译」成数学框架 | 25位学者撰文
520jefferson 阅5
《深入浅出Embedding》随笔
DuerOS布道师 阅42
基于注意力机制的图像描述生成算法改进
科技分享小助手 阅5
最新最全最火的Prompt指南来了!
老林37 阅1731 转4
Yann LeCun:大模型方向错了,智力无法接近人类
投沙斋 阅19 转3
ChatGPT以及LLM(大语言模型)的思考 | 一起用AI
南庄小筑 阅409 转5
首页
留言交流
联系我们
回顶部