打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
资料 l 分布式深度学习综述(PPT全文下载)


Adam Gibson 是美国计算机科学家,人工智能公司 Skymind、开源框架 Deeplearning4j 的联合创始人。Deeplearning4j(简称DL4J)是为 Java 和 Scala 编写的首个商业级开源分布式深度学习库。DL4J与 Hadoop 和 Spark 集成,为商业环境(而非研究工具目的)所设计。Skymind 是 DL4J 的商业支持机构。


点击阅读原文,下载 PPT 全文。




分布式深度学习——综述





神经网络训练基础

向量化/不同类型数据

参数——一个完整的神经网络包括一张图和参数向量

Minibatchers——神经网络数据需要大量的 ram(随机访问内存)。需要做 minibatch 训练。




向量化
图像
文本
音频
视频
CSV 文件/有结构的
网站日志




参数神经网络结构

计算图——一个神经网络只是 ndarray/tensor 的一个 dag 图。

一个神经网络的参数可做成一张图中代表所有连接/权重的一个向量。




Minibatches

数据被区分入子样本

适合于 GPU

训练更快速

应该是尽可能均匀的代表性样本(每一个标签)




分布式训练

多台计算机

多重 GPUs

多重 GPUs 和多台计算机

不同类型的并行训练

多种不同的算法



多台计算机

分布式系统——在集群上连接/协调计算机

Hadoop

HPC(MPI 和同类)

Client/server 体系架构




多重 GPUs

单个 box

可能是多个主线程

RDMA 互相连接

NVLink 技术

典型应用于一个数据中心架

将问题打碎

在 GPUs 间共享数据



多重 GPUs 和多台计算机

在集群上协调问题

使用 GPUs 做计算

可通过 MPI 或者 hadoop 完成(主线程协调)

参数服务器——在主服务器上同步参数,和处理 GPU 互相连接事件一样。



类型的并行

数据并行

模型并行

二者兼有?



多种不同的算法

全局归纳

Iterative Reduce

纯模型并行

参数平均是关键



核心理念

将问题区分进组块

可以使神经网络

也可以是数据

尽可能使用多的 CUDA 或 CPU 核心



参数平均化如何工作的?

在集群上复制模型

使用同样的模型在不同的数据部分上进行训练

超参数应该更具侵略性(更高的学习效率)



全局归纳
PDF 查看网址:http://cilvr.cs.nyu.edu/diglib/lsml/lecture04-allreduce.pdf



Iterative Reduce(参数平均)



自然梯度算法(ICLR 2015)
论文查看地址:https://arxiv.org/pdf/1410.7455v8.pdf——同步每一个 K 数据点



调整分布式训练

以正则化的方式平均每一步
需要更多侵略性超参数
不需要总是非常快速——因为你拥有的数据点的原因
分布式系统应用到这里:发送代码到数据,没其他办法
为最大性能降低通信开销
已经有很多的实验了


  

  本文选自 slideshare,来源:公众号“机器之心”(ID:almosthuman2014)

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
【重磅】Google 分布式TensorFlow,像 Android 一样带来&nbsp...
分布式深度学习平台DistBelief和TensorFlow
Bengio研究生科研指导演讲:解读人工智能全貌和下一个前沿
微软刘铁岩:人工智能的挑战与机遇(视频 PPT)
基于Apache Spark的机器学习及神经网络算法和应用
人工智能模型是这样构建的!探秘DL4J分布式训练法!
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服