原文:
【ACL 2019】预训练语言模型的最新探索
【NLP】 深入浅出解析BERT原理及其表征的内容
有三AI 阅371 转4
成本砍砍砍!不用数据也能用 BERT 做对比学习?
michael1314520 阅221 转3
Briefings in Bioinformatics | 基于SMILES的药物分子表征深度模型和数据增强策略研究
DrugAI 阅253 转2
24号-微软提出CLIPBERT:通过稀疏采样的视频语言学习
小白学视觉 阅87
艾森克-认知心理学(第5版)笔记
张德文 阅2396 转49
工作记忆和推理
kantuoga 阅618
论文解读:Bert原理深入浅出
Clay*more 阅546 转7
薄言AI再升级,全面改进Transformer类预训练模型,自然语言任务超越BERT
天承办公室 阅93
全面解读用于文本特征提取的神经网络技术:从神经概率语言模型到GloVe
歪小姐 阅298 转2
万字深度好文!视觉-语言(VL)智能:任务、表征学习和大型模型
taotao_2016 阅35 转2
NLP领域中的迁移学习现状
hlhq1 阅50 转2
CVPR2021 Oral《Seeing Out of the Box》北科大&中山大学&微软提出端到端视觉语言表征预训练方法
我爱计算机视觉 阅35
分享一种解决词表征难题的新方法给大家
趣味资源馆 阅1
AAAI 2020 论文解读:关于生成模型的那些事
莫斯科威 阅149
ACL 2019 | ERNIE:利用信息化实体增强语言表示
学术头条 阅100
AI:2020年6月22日北京智源大会演讲分享之09:40-10:10Mari 教授《基于显式上下文表征的语言处理》、10:10-10:40周明教授《多语言及多模态任务中的预训练模型》
处女座的程序猿 阅2
内隐学习的动态系统研究
平平网 阅72 转2
首页
留言交流
联系我们
回顶部