不一样的分布式运算框架(spark,hadoop,ES,MPI,Cassandra,etc.)中的不一样任务每每须要的资源(内存,CPU,网络IO等)不一样,它们运行在同一个集群中,会相互干扰,为此,应该提供一种资源隔离机制避免任务之间由资源争用致使效率降低,考虑到资源利用率,运维成本,数据共享等因素,公司通常但愿将全部这些框架部署到一个公共的集群中,让它们共享集群的资源,并对资源进行统一使用,这样,便诞生了资源统一管理与调度平台,典型的表明就是mesos.java
Apache Mesos采用了master/slave结构来简化设计,将master尽量作的轻量级,仅保存了各类计算框架(Farmemork)和mesos slave的状态信息,这些状态容易在出现故障的时候被重构,除此以外,mesos还可使用zookeeper解决master单点故障问题。python
Mesos Master充当全局资源调度器角色,采用某种策略算法将某个slave上的空闲资源分配给某个Farmework,而各类Farmework则是经过本身的调度器向master注册进行接入Mesos Slave则是收集任务状态和启动各个Farmework和Executor。原理图以下:linux
在每一台服务器上安装Apache Mesos服务,因为mesos安装等待时间较长,本文在实验环境下选择使用一台安装好mesos的虚拟机进行克隆,而后进行后续操做。nginx
cat /etc/redhat-release //查看Linux版本
uname -r/a //查看内核版本算法
tar zxvf jdk-8u91-linux-x64.tar.gz -C /usr/local/
cd /usr/local
mv jdk1.8.0_91/ javadocker
vim /etc/profileapache
export JAVA_HOME=/usr/local/java //末尾追加 export PATH=$JAVA_HOME/bin:$PATH export CLASSPATH=$JAVA_HOME/jre/lib/ext:$JAVA_HOME/lib/tools.jar
source /etc/profilejson
yum groupinstall -y "Development Tools"vim
wget http://repos.fedorapeople.org/repos/dchen/apache-maven/epel-apache-maven.repo -O /etc/yum.repos.d/epel-apache-maven.repocentos
yum install -y apache-maven python-devel zlib-devel libcurl-devel openssl-devel cyrus-sasl-devel cyrus-sasl-md5 apr-devel apr-util-devel subversion-devel
vim /etc/yum.repos.d/wandisco-svn.repo
[WANdiscoSVN] name=WANdisco SVN Repo 1.9 enabled=1 baseurl=http://opensource.wandisco.com/centos/7/svn-1.9/RPMS/$basearch/ gpgcheck=1 gpgkey=http://opensource.wandisco.com/RPM-GPG-KEY-WANdisco
vim /etc/profile
export MESOS_NATIVE_JAVA_LIBRARY=/usr/local/lib/libmesos.so export MESOS_NATIVE_LIBRARY=/usr/local/lib/libmesos.so
wget http://www.apache.org/dist/mesos/0.25.0/mesos-0.25.0.tar.gz
tar zxvf mesos-0.25.0.tar.gz -C /opt/
mv mesos-0.25.0/ /root/
cd /root/mesos-0.25.0
mkdir build
cd /build 建立build为编译安装目录
../configure 执行安装程序make 等待时间较长(须要服务器保持在线状态)
make check
make install
Mesos-Master负责维护slave群集的心跳,从slave提取资源信息。配置以前须要作好相应的解析工做。
hostnamectl set-hostname master
vim /etc/hosts
192.168.144.114 master //此时只作单台master与slave,若遇多台则解析内容须要增长 192.168.144.119 slave1
bash 刷新生效主机名,或者重启服务器
ln -sf /root/mesos-0.25.0/build/bin/mesos-master.sh /usr/sbin/mesos-master
mesos-master --work_dir=/home/q/mesos/data --log_dir=/home/q/mesos/logs --no-hostname_lookup --ip=0.0.0.0
--work_dir 指定工做目录 --log_dir 指定日志生成位置 --no-hostname_lookup 不指定域名解析 --ip=0.0.0.0 任意网段都可访问
hostnamectl set-hostname slave1
vim /etc/hosts
192.168.144.114 master //此时只作单台master与slave,若遇多台则解析内容须要增长 192.168.144.119 slave1
ln -sf /root/mesos-0.25.0/build/bin/mesos-slave.sh /usr/sbin/mesos-slave
yum install docker -y
systemctl start docker.service
systemctl enable docker.service
mesos-slave --containerizers="mesos,docker" --work_dir=/home/q/mesos/data --log_dir=/home/q/mesos/logs --master=192.168.175.132:5050 --no-hostname_lookup --ip=0.0.0.0
--containerizers="mesos,docker" 添加容器参数,使docker的容器能够被配置去执行任务或者执行器。
vim /etc/hosts
192.168.144.114 master 192.168.144.117 master1 192.168.144.118 master2 192.168.144.119 slave1 192.168.144.120 slave2
vim /etc/hosts
192.168.144.114 master 192.168.144.117 master1 192.168.144.118 master2 192.168.144.119 slave1 192.168.144.120 slave2
tar zxvf zookeeper-3.4.13.tar.gz -C /home/q/
cd zookeeper-3.4.13/
mv conf/zoo_sample.cfg conf/zoo.cfg 注意sample.cfg与zoo.cfg只能存在一个,只能识别一个cfg
cd /home/q/zookeeper-3.4.13/conf
vim zoo.cfg
dataDir=/home/q/zookeeper-3.4.6/data //修改数据存放目录 dataLogDir=/home/q/zookeeper-3.4.6/datalog //日志文件位置 server.1=192.168.144.114:2888:3888 //server后面跟上区分每一台master标识 server.2=192.168.144.117:2888:3888 server.3=192.168.144.118:2888:3888
scp zoo.cfg 192.168.144.117:/home/q/zookeeper-3.4.13/conf/
scp zoo.cfg 192.168.144.118:/home/q/zookeeper-3.4.13/conf/
//在master主机上操做(/home/q/zookeeper-3.4.13/中) mkdir data datalog echo 1 > data/myid cat data/myid //在master1主机上操做(/home/q/zookeeper-3.4.13/中) mkdir data datalog echo 2 > data/myid cat data/myid //在master2主机上操做(/home/q/zookeeper-3.4.13/中) mkdir data datalog echo 3 > data/myid cat data/myid
cd /home/q/zookeeper-3.4.13/ //在master主机上启动服务 ./bin/zkServer.sh start conf/zoo.cfg //在master1主机上启动服务 ./bin/zkServer.sh start conf/zoo.cfg //在master2主机上启动服务 ./bin/zkServer.sh start conf/zoo.cfg //查看leader ./bin/zkServer.sh status
//master mesos-master --work_dir=/home/q/mesos/data --log_dir=/home/q/mesos/logs --no-hostname_lookup --ip=0.0.0.0 --zk=zk://192.168.144.114:2181/mesos --quorum=2 //想要在后台运行后面加上&>/dev/null &便可 //master1 mesos-master --work_dir=/home/q/mesos/data --log_dir=/home/q/mesos/logs --no-hostname_lookup --ip=0.0.0.0 --zk=zk://192.168.144.117:2181/mesos --quorum=2 //master2 mesos-master --work_dir=/home/q/mesos/data --log_dir=/home/q/mesos/logs --no-hostname_lookup --ip=0.0.0.0 --zk=zk://192.168.144.118:2181/mesos --quorum=2 ----------------------- //在slave1上 mesos-slave --containerizers="mesos,docker" --work_dir=/home/q/mesos/data --log_dir=/home/q/mesos/logs --master=zk://192.168.144.114:2181,192.168.144.117:2181,192.168.144.118:2181/mesos --no-hostname_lookup --ip=0.0.0.0 //在slave2上 mesos-slave --containerizers="mesos,docker" --work_dir=/home/q/mesos/data --log_dir=/home/q/mesos/logs --master=zk://192.168.144.114:2181,192.168.144.117:2181,192.168.144.118:2181/mesos --no-hostname_lookup --ip=0.0.0.0
wget http://downloads.mesosphere.com/marathon/v0.15.2/marathon-0.15.2.tgz
tar zxvf marathon-0.15.2.tgz -C /home/q/
./bin/start --hostname 192.168.144.114 --master zk://192.168.144.114:2181,192.168.144.117:2181,192.168.144.118:2181/mesos --http_address 0.0.0.0 ./bin/start --hostname 192.168.144.117 --master zk://192.168.144.114:2181,192.168.144.117:2181,192.168.144.118:2181/mesos --http_address 0.0.0.0 ./bin/start --hostname 192.168.144.118 --master zk://192.168.144.114:2181,192.168.144.117:2181,192.168.144.118:2181/mesos --http_address 0.0.0.0
查看任务执行状况。
vim nginx.json
{ "id":"/nginx", "container":{ "type":"DOCKER", "docker":{ "image":"nginx", "network":"HOST", "parameters":[], "privileged":false, "forcePullImage":false } }, "cpus":0.1, "mem":32.0, "instances":1 }
curl -X POST -H "Content-type:application/json" http://192.168.144.114:8080/v2/apps -d@nginx.json
root 3668 0.0 0.6 121912 12872 pts/0 Sl+ 10:20 0:00 /usr/bin/docker-current -H unix:///var/run/docker.sock pull nginx:latest
docker images
REPOSITORY TAG IMAGE ID CREATED SIZE docker.io/nginx latest c82521676580 3 weeks ago 109 MB
docker ps -a
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 9940ac858a3b nginx "nginx -g 'daemon ..." 3 minutes ago Up 3 minutes mesos-0d21cffd-8a12-450d-b6ff-4d4befcdaad0-S1.89e29728-37cb-4ea3-9518-2d9741ba7618
测试其中一台slave