ps-lite框架是DMLC组自行实现的parameter server通讯框架,是DMLC其余项目的核心,例如其深度学习框架MXNET的分布式训练就依赖ps-lite的实现。html
在机器学习和深度学习领域,分布式的优化已经成了一种先决条件,由于单机已经解决不了目前快速增加的数据与参数带来的问题。现实中,训练数据的数量可能达到1TB到1PB之间,而训练过程当中的参数可能会达到\(10^9\)到\(10^{12}\)。而每每这些模型的参数须要被全部的worker节点频繁的访问,这就会带来不少问题和挑战:node
在parameter server中,每一个 server 实际上都只负责分到的部分参数(servers共同维持一个全局的共享参数),而每一个 work 也只分到部分数据和处理任务。算法
PS架构包括计算资源与机器学习算法两个部分。其中计算资源分为两个部分,参数服务器节点和工做节点:编程
机器学习算法也分红两个部分,即参数和训练:bash
这种设计有两种好处:服务器
从而,PS架构有五个特色:网络
在parameter server中,参数都是能够被表示成(key, value)的集合,好比一个最小化损失函数的问题,key就是feature ID,而value就是它的权值。对于稀疏参数,不存在的key,就能够认为是0。多线程
把参数表示成k-v, 形式更天然, 易于理,更易于编程解。workers跟servers之间经过push与pull来通讯的。worker经过push将计算好的梯度发送到server,而后经过pull从server更新参数。为了提升计算性能和带宽效率,parameter server容许用户使用Range Push跟Range Pull 操做。架构
Task也分为同步和异步,区别以下图所示:并发
因此,系统性能跟算法收敛速率之间是存在一个平衡,你须要同时考虑:
考虑到用户使用的时候会有不一样的状况,parameter server 为用户提供了多种任务依赖方式:
算法1是没有通过优化的直接算法和它的流程图以下:
算法3中的KKT Filter能够是用户自定义过滤:
对于机器学习优化问题好比梯度降低来讲,并非每次计算的梯度对于最终优化都是有价值的,用户能够经过自定义的规则过滤一些没必要要的传送,再进一步压缩带宽消耗:
上面说了parameter server的原理,如今来看下这个是怎么实现的。ps-lite是DMLC实现parameter server的一个程序,也是MXNet的核心组件之一。
ps-lite包含三种角色:Worker、Server、Scheduler。具体关系以下图:
图9 三种角色的关系图
Worker节点负责计算参数,并发参数push到Server,同时从Serverpull参数回来。
Server节点负责管理Worker节点发送来的参数,并“合并”,以后供各个Worker使用。
Scheduler节点负责管理Worker节点和Server节点的状态,worker与server之间的链接是经过Scheduler的。
Postoffice是全局管理类,单例模式建立。主要用来配置当前node的一些信息,例如当前node是哪一种类型(server,worker,scheduler),nodeid是啥,以及worker/server 的rank 到 node id的转换。
Van是负责通讯的类,是Postoffice的成员。Van中std::unordered_map<int, void*> senders_保存了node_id到链接的映射。Van只是定义了接口,具体实现是依赖ZMQ实现的ZMQVan,Van类负责创建起节点之间的互相链接(例如Worker与Scheduler之间的链接),而且开启本地的receiving thread用来监听收到的message。。
Customer用来通讯,跟踪request和response。每个链接对应一个Customer实例,链接对方的id和Customer实例的id相同。
SimpleApp是一个基类;提供了发送接收int型的head和string型的body消息,以及注册消息处理函数。它有2个派生类。
KVServer是SimpleApp的派生类,用来保存key-values数据。里面的Process()被注册到Customer对象中,当Customer对象的receiving thread接受到消息时,就调用Process()对数据进行处理。
KVWorker是SimpleApp的派生类,主要有Push()和Pull(),它们最后都会调用Send()函数,Send()对KVPairs进行切分,由于每一个Server只保留一部分参数,所以切分后的SlicedKVpairs就会被发送给不一样的Server。切分函数能够由用户自行重写,默认为DefaultSlicer,每一个SlicedKVPairs被包装成Message对象,而后用van::send()发送。
KVPairs封装了Key-Value结构,还包含了一个长度选项。
SArray是Shared array,像智能指针同样共享数据,接口相似vector。
Node封装了节点的信息,例如角色、ip、端口、是不是恢复节点。
Control封装了控制信息,例如命令类型、目的节点、barrier_group的id、签名。
Meta封装了元数据,发送者、接受者、时间戳、请求仍是相应等。
Message是要发送的信息,除了元数据外,还包括发送的数据。
为了更好地看到ps-lite的运行原理,咱们先来看下它在本地运行的脚本:
#!/bin/bash # set -x if [ $# -lt 3 ]; then echo "usage: $0 num_servers num_workers bin [args..]" exit -1; fi export DMLC_NUM_SERVER=$1 shift export DMLC_NUM_WORKER=$1 shift bin=$1 shift arg="$@" # start the scheduler export DMLC_PS_ROOT_URI='127.0.0.1' export DMLC_PS_ROOT_PORT=8000 export DMLC_ROLE='scheduler' ${bin} ${arg} & # start servers export DMLC_ROLE='server' for ((i=0; i<${DMLC_NUM_SERVER}; ++i)); do export HEAPPROFILE=./S${i} ${bin} ${arg} & done # start workers export DMLC_ROLE='worker' for ((i=0; i<${DMLC_NUM_WORKER}; ++i)); do export HEAPPROFILE=./W${i} ${bin} ${arg} & done wait
这个脚本主要作了两件事,第一件是为不一样的角色设置环境变量,第二件是在本地运行多个不一样的角色。因此说ps-lite是要多个不一样的进程(程序)共同合做完成工做的,ps-lite采起的是用环境变量来设置角色的配置。
test_simple_app.cc是一人很简单的app,其它复杂的流程原理这个程序差很少,因此咱们就说说这个程序是怎么运行的。先来看下刚开始运行程序时,worker(W)\Server(S)\Scheduler(H)之间是怎么链接的,这里没有写Customer处理普通讯息的流程。W\S\H表明上面脚本运行各个角色后在不一样角色程序内的处理流程。
Customer处理普通讯息流程以下:
参考引用:
[1] http://blog.csdn.net/stdcoutzyx/article/details/51241868
[2] http://blog.csdn.net/cyh_24/article/details/50545780
[3] https://www.zybuluo.com/Dounm/note/529299
[4] http://blog.csdn.net/KangRoger/article/details/73307685
【防止爬虫转载而致使的格式问题——连接】: http://www.cnblogs.com/heguanyou/p/7868596.html