第49页 分布式机器学习框架
- 章节名:分布式机器学习框架
- 页码:第49页
1.同步
早期盛行是由于MapReduce并且同步的方式在逻辑上清晰明了,但是有短板效应和系统宕机的时候
2.异步
有锁:保证写入的完整性,但是影响了吞吐量
无锁:不能保证全局的完整性
步调差异会导致的问题,会导致更新较慢的节点对全局模型的收敛造成问题。
算法:异步SGD HogWild! Cyclades 对延迟不敏感:AdaptiveRevision AdaDelay 补偿延迟:延迟补偿的异步SGD
混合的方法:
SSP,设置一个最快的阈值,最快的节点的超过阈值就要等大。在延迟不太大的时候可以考虑。
或者分组,根据快慢分等级,组内同步,组间异步通讯。
20人阅读
Hil_C对本书的所有笔记 · · · · · ·
-
第43页 分布式机器学习框架
数据划分: 通过全局随机采样或者shuffle来进行划分时,前者问题是全局采样代价比较高,并且...
-
第47页 分布式机器学习框架
数据并行的框架下,通讯内容可以是子模型,或者非常重要的的样本(SVM中可以使用SV)。 模型...
-
第49页 分布式机器学习框架
-
第51页 分布式机器学习框架
通信的频率是一个大问题 1.通信频繁对模型收敛的效果有保障,但是代价很大。 是处理完mini-ba...
-
第52页 分布式机器学习框架
聚合的问题 1.简单平均 2.寻求一个一致的优化问题的解:ADMM或者BMUF 凸问题的保证,但是非凸...
> 查看全部18篇
说明 · · · · · ·
表示其中内容是对原文的摘抄