RHCS集群服务 7.10

集群linux

主要讲了HAHighAvailability)网络高可用(在大多数状况下网络不会挂掉)后端

配置:启动三个企业6的虚拟机、关闭火墙和selinux服务器

每台虚拟机上最好配置好解析,这样快(/etc/hosts)网络

eg:负载均衡

spacer.gif

修改主机名分别为(/etc/sysconfig/network:ide

Server1.example.com(管理机、控制端)性能

Server2.example.com(节点)测试

Server3.example.com(节点)url

配置三个虚拟机的yum源为(/etc/yum.repos.d)spa

[Server]

name=localserver

baseurl=http://172.25.9.250/rh6.5

gpgcheck=0

 

[HighAvailability]

name=localserver

baseurl=http://172.25.9.250/rh6.5/HighAvailability

gpgcheck=0

 

[LoadBalancer](负载均衡)

name=localserver

baseurl=http://172.25.9.250/rh6.5/LoadBalancer

gpgcheck=0

 

[ResilientStorage]

name=localserver

baseurl=http://172.25.9.250/rh6.5/ResilientStorage

gpgcheck=0

 

[ScalableFileSystem]

name=localserver

baseurl=http://172.25.9.250/rh6.5/ScalableFileSystem

"rhel-source.repo"25L, 464C                                 

原来只有第一个,最后几个是要加的。

spacer.gif

1.基本配置

在两台节点端(server2server3)安装ricci(如下操做都是在两个节点上同时进行)

yum installricci –y

安装完以后通常会生成/etc/cluster这个目录,在这个目录中会有cluster.confcman-notify.d。若是没有的话,多是由于没有cman这个包,把它按上。yum install cman –y

chkconfig riccion                设置ricci开机启动

/etc/init.d/riccistart                           开启ricci

echo westos |passwd –stdin ricci   ricci密码(必定要有不然将认证失败)

在管理机|控制端(servser1)中安装luci

yum install luci-y

/etc/init.d/lucistart              开启luci

开启最后一行会出现一个地址,在wed端登陆着个地址

spacer.gif

spacer.gif

spacer.gif

root登陆

而后添加节点

spacer.gif

注:若是出现问题提示你建立的集群存在,而你又想用该名字,那就进入/etc/cluster/中把cluster.conf删掉从新弄

出现以下错误:

spacer.gif

能够看出是servercman开启失败,因此在servser2中执行

/etc/init.d/cmanstart

 

 

 

弄好以后会出现下列状况

spacer.gif

此时luci管理端正在为ricciHA节点上自动安装所须要的包

完成后图形端:

spacer.gif

在字符界面输入clustst会看到节点显示为online 

spacer.gif

2.fence(栅)设备的配置

Fence设备是RHCS集群中必不可少的一个组成部分,经过fence设备能够避免因出现不可预知的状况而形成“脑裂”现象,fence设备的出现,就是为了解决相似这些问题,fence设备主要就是经过服务器或存储自己的硬件管理接口,或者外部电源管理设备,来对服务或存储直接发出硬件管理指令,将服务器重启或关机,或者与网络断开链接。

Fence的工做原理是:当意外缘由致使主机异常或者宕机时,备机会首先调用fence设备,而后经过fence设备将异常主机重启或者从网络隔离,当fence操做成功执行后,返回信息给备机,备机在接到fence成功的信息后,开始接管主机的服务和资源。这样经过fence设备,将异常节点占据的资源进行了释放,保证了资源和服务始终运行在一个节点上。

在本次试验中使用物理主机做为fence设备。

spacer.gif

选择fencedevices并命名

在物理主机(fencce设备)中安装下列软件

spacer.gif

而后执行fence_virtd–cfence_virtd

spacer.gif

spacer.gif

直接空格

spacer.gif

实验中写的是br0

spacer.gif

高亮的文件要本身事先创建好,以后空格y就好

spacer.gif

 

 

下面几步不是很懂,照着作就了。

spacer.gif

往两个节点中也拷贝入fence_xvm.key拷到/etc/cluster下(server2server3

在物理主机(fence设备)中开启fence_virtd服务

spacer.gif

spacer.gif

而后查看fence端口开了没(1229

spacer.gif

而后添加fence设备(注意虚拟机的主机名与虚拟机名字要对应,最好使用id

spacer.gif

spacer.gif

spacer.gif

spacer.gif

而后添加第二个fence设备

spacer.gif

spacer.gif

后面的和添加第一个同样

而后检验fence设计是否成功

spacer.gif

停掉server2以后若是出现 fenceserver2.example.com success而且server2虚拟机重启的话,fence就设置成功。

3.添加错误域(失效转移):两个服务同时支持一个挂后以后另外一个补上

Failover:又称故障切换,指系统中其中一项设备或服务失效而没法运做时,另外一项设备或服务便可自动接手原失效系统所执行的工做。

 

spacer.gif

进入以后点Add增长

spacer.gif

Priority:为优先级,越小优先级越高

Restricted:该服务只能在该节点中

No Failback:为服务不切回(默认为切回),就是指当坏掉的节点号了时,服务切不切回。通常只有当原来节点的性能大于备用节点的性能时,才切回。当两个节点的性能差很少时,通常不切回。

spacer.gif

4.添加资源:

spacer.gif

这个ip是一个虚拟的浮动ip,用于外界访问。当外界访问的是哪个节点时,该ip就在哪一个节点上。若是该节点坏掉以后,另外一个节点顶上的话,该ip就出如今顶替的节点上。(将会浮动出如今后端提供服务的HA节点上;最后一行的数字越小,浮动ip切换的速度越快。)

spacer.gif

httpd服务必须是本身在HA节点上提早安装,但不要启动(在节点上不要开启httpd服务)。(这一步我不知道干吗)

spacer.gif

5.添加服务组:

spacer.gif

spacer.gif选择你刚刚添加的错误组的名字

 

而后点spacer.gif选择刚刚写的浮动iphttpd

spacer.gif

 

spacer.gif

而后继续点spacer.gif,不要点spacer.gif

 

 

spacer.gif

此次点浮动ip

而后能够看到

spacer.gif

(网络资源)

可看见集群本身自动将192.268.122.34(浮动ip,按本次试验的话应该是在server1上启动了)上的httpd启动了。

注:后面的截图由于老师的机子出问题,因此从新安装了虚拟机。Sever11server12为节点,server3为服务端。

spacer.gif

server11上配置测试页。

spacer.gif

spacer.gif

server12上配置测试页。

spacer.gif

server12clustat查看集群状态能够看到如今是server11在进行服务。

spacer.gif

server11 ip addrshow 能够看出除了server11原来的ip以外server11上还有浮动ip

6.测试

咱们可使server挂掉,而后看服务是否是转移到server上了

1)把server的网断掉

spacer.gif

spacer.gif

再继续经过clustat查看集群服务状态,能够看到server12顶替了server11。同时浮动ip也会出如今server12上。能够用 ip addrshow查看。

spacer.gif

2)能够经过内核奔溃

spacer.gif

 

spacer.gif

266

相关文章
相关标签/搜索