打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
GPU底层优化 | 如何让Transformer在GPU上跑得更快?

计算机视觉(CV)|机器学习|深度学习|图像处理

前言

 

Transformer 对计算和存储的高要求阻碍了其在 GPU 上的大规模部署。文章中,来自快手异构计算团队的研究者分享了如何在 GPU 上实现基于 Transformer 架构的 AI 模型的极限加速,介绍了算子融合重构、混合精度量化、先进内存管理、Input Padding 移除以及 GEMM 配置等优化方法。

整理丨计算机视觉研究院

图 1:基于 Transformer 架构的 NLP 模型规模


图 2:基于 Transformer 架构的应用


图 3:Transformer 模型的架构


图 4:Beam Search Decoding (Decoder + Beam Search) 流程图


Transformer 家族模型

根据具体模型架构和应用的不同,研究者将 Transformer 家族的模型分为四大类(如图 5):

图 5:经典的基于 Transformer 结构的 AI 模型



图 6:Transformer 架构中 Self-attention 和 Feedforward 模块的 CUDA kernel 融合和重构,参见[14]


图 7:Transformer FP16 版本的几个关键 CUDA kernel 采用的量化精度


图 8:Transformer CUDA 实现的内存管理



图 9:输入 Padding 移除的方案 - 通过引入 Offset Mask,移除 Padding 的 Sequence 和原始的 Sequence 可以互相转换重建


图 10:通过对 CUDA Kernel 的分类判断是否可以移除 Padding

图 11:Transformer GEMM 配置的优化

总结


参考文献

[1] M. Luong et al, Effective Approaches to Attention-based Neural Machine Translation, arXiv:1508.04025v5 (2015).
[2] A. Vaswani et al. Attention is all you need, Advances in neural information processing systems (2017).
[3] J. Devlin et al. Bert: Pre-training of deep bidirectional transformers for language understanding, arXiv:1810.04805 (2018).
[4] A. Radford et al. Language Models are Unsupervised Multitask Learners, 2019.
[5] https://www.microsoft.com/en-us/research/blog/turing-nlg-a-17-billion-parameter-language-model-by-microsoft/
[6] C. Raffe et al. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer, arXiv:1910.10683v3 (2019).
[7] T. Brown et al, Language Models are Few-Shot Learners, arXiv: 2005.14165v4 (2020).
[8] N. Carion et al, End-to-End Object Detection with Transformers, arXiv: 2005.12872 (2020).
[9] M. Chen et al, Generative Pretraining from Pixels, ICML (2020).
[10] F. Yang et al, Learning Texture Transformer Network for Image Super-Resolution, CVPR (2020).
[11] D. Zhang et al, Feature Pyramid Transformer, ECCV (2020).
[12] Y. Zhao et al, The SpeechTransformer for Large-scale Mandarin Chinese Speech Recognition. ICASSP 2019.
[13] A. Gulati et al, Conformer: Convolution-augmented Transformer for Speech Recognition, arXiv:2005.08100v1 (2020).
[14] https://github.com/NVIDIA/DeepLearningExamples/tree/master/FasterTransformer

—THE END—

专注于计算机视觉(CV)与机器学习,努力将分享变成一种习惯!

后台回复「加群」加入互助群。

回复「目标检测」打包下载目标检测相关资料。

回复计算机视觉机器学习深度学习图像处理PythonC/C++PyTorchCVPR2023ECCV2022数据集 获取相应资料(不定期更新)。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
2021 年计算机视觉的 5 大趋势
5分钟端侧部署视觉大模型!专为Transformer优化的AI芯片来了
助力开发通用式AI大模型,微软研究员提出Transformer视觉算法,成功匹配计算机视觉和自然语言主流架构
什么是人工智能领域的 Foundation Model?
2021谷歌年度AI技术总结:Jeff Dean展望人工智能的5大未来趋势
​谷歌大神Jeff Dean领衔,万字展望5大AI趋势
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服