原文:
数据并行、模型并行解决方案的通信量对比
手把手推导分布式矩阵乘的最优并行策略
520jefferson 阅67
大语言模型(LLM)分布式训练框架总结
黄爸爸好 阅183 转3
微软开源深度学习优化库 DeepSpeed 连登 GitHub 趋势榜!
031008091 阅86
WAIC 2023 | 新加坡国立大学尤洋教授 :AI大模型的挑战与系统优化
天承办公室 阅10
分布式深度学习模型训练的通信优化与数据同步策略
办公达人分享 阅8
成千上万亿参数的AI大模型是如何炼成的?兼论并行计算的四大策略
dzs223 阅70
机器不学习:机器学习时代三大神器GBDT、XGBoost、LightGBM
万皇之皇 阅82887 转259
每日精选日语新闻
从此不留白 阅17
tensorflow 多GPU操作
雪柳花明 阅856
大模型相关资料整理
shawnsun007 阅772 转3
支撑千万规模类别分类技术,百度飞桨定义工业级深度学习框架
an67604 阅107
串行和并行的区别
goandlove 阅111 转3
深度学习平台的分布式实现综述
LZS1991 阅2046 转13
你也可以训练超大神经网络!谷歌开源GPipe库
霍振丽 阅133 转14
串行传输与并行传输有啥不一样?
和老康一起学5G 阅88
同步与异步串口通信
枫雨 阅6269 转49
大会直击|微软亚洲研究院刘铁岩:深度学习成功的秘密
天道酬勤197102 阅38 转2
微软刘铁岩:人工智能的挑战与机遇(视频 PPT)
法厉无边 阅132
谷歌开源效率怪兽GPipe, 速度提升25倍, CIFAR
苏心阁 阅35
【译】TensorFlow白皮书
码农书馆 阅107
在并行计算效率、缺失值处理、预测性能上非常优秀的XGBoost算法
昵称26181007 阅8
从算法到工程,推荐系统全面总结
西一里2l6sluho 阅29
首页
留言交流
联系我们
回顶部