AIX下的ha高可用集群cluster

安装ha软件

1、安装软件node

最稳定的版本是5.4.0,优先安装稳定版本5.4服务器

安装依赖于包base.data, cluster的man包安装失败缘由是缺乏base.data包并发

安装全部cluster.开头的包,能够不安装cluster.man 包oracle

2、打ha补丁app

打补丁以前先执行指令:inutoc生成  .toc文件,而后smitty  update_all升级cluster      到5.4.1.0版本svg

 

ha环境的搭建注意事项

1、ha配置为主备模式或者互备模式应该根据应用系统的要求选择,在设置资源运行的优先级时 第一个节点就是资源组的首选运行节点。测试

2、node切换以前不须要varyoffvg ,ha能够自动varyoffvg而且mount 其中的fsserver

3、在切换oradatavg前,必须先shutdown 掉oracle,不然oracle会宕机进程

4、在不一样节点切换vg时,在第一次切换到新节点以前必须先执行importvg,将vg添加到AIX的ODM库中,这样ha才能够varyonvg,不然找不到资源的路径,若是想回切资源,可是以前node上执行过exportvg 即修改掉了ODM中的vg指定路径,这样是没法varyonvg的,必须从新执行importvg指令添加vg的路径到ODM库中,ha才能自动激活vg。ip

5、ha在node间切换时,对vg只负责varyonvg 和varyonffvg 不负责importvg 和exportvg

6、ha节点间的自由切换不须要os密码认证,由系统后台进程通信完成

7、删除cluster前必需要先停掉全部节点的集群服务,不然集群崩溃

8、集群节点间同步信息时,同步的是集群配置文件的内容,不是同步各个节点上的os中的内容。

 

搭建oracle ha步骤

1、安装oracle软件

一、

2、dbca建立oracle库

3、配置集群资源(service ip)

4、配置集群资源(oradatavg)

5、配置集群资源(app server)

6、不一样node之间切换oracle

解决HA的 脑裂问题

1、安装建立并发vg时必需的软件包clvm包,该包安装、升级、后必须重启os

clvm包的描述:Enhanced Concurrent Logical Volume Manager

软件包在aix6100-dvd1.iso中:安装时进入到installp/ppc目录下执行安装

软件包升级在6106中:升级时使用指令smitty update_all 直接选择所有升级到最新版   本,不支持选择部分软件包升级,系统只支持相关软件包所有升级

2、肯定共享存储

肯定共享存储的方法有三种:

方法一:

在共享存储的服务器上lspv,若是对应hdiskn的PVID是相同的就能够肯定为    是              共享存储

另外执行指令:bootinfo -s hdiskn,查看下对应存储的大小,共享存储的大小一定                       是相同的

 

方法二:

只针对IBM的存储才能生效,只对IBM的DS系统存储才能生效

执行指令:mpio_get_config -Av

 

显示结果中的 User Label列值是惟一的,在211和212机器上同时执行该指令,

若是对应hdiskn的 User Lablel列值相同,就说明是共享存储

方法三:

使用dbh_read指令,使用该指令前要确保共享存储上没有作心跳磁盘,不然就将                      测试信息写入共享存储的磁盘头了

在211端:     /usr/sbin/rsct/bin/dhb_read -p hdisk8 -r 进入信息receive状态

在212端:  /usr/sbin/rsct/bin/dhb_read -p hdisk8 -t  进入信息transate状态

若是在211端能成功接收到212端发送的测试信息,就说明hdisk8盘是共享                                  存储

3、建立并发VG,作磁盘心跳

一、在211下建立hboravg 类型为enhanced concurrent 增长型并发vg,同时选择不自                       动active,并发vg作磁盘心跳只是使用了并发vg的vgda区,只使用磁盘头,不用               设置系统重启时自动激活,

二、在211下:在并发vg下建立测试lv,目的是测试是否成功建立了并发vg,即该vg                        是否可用作                        为并发vg来用, lv名称: sychlv

在建立lv前须要先activevg : varyonvg hboravg

而后建立lv                                 :  smitty mklv

三、211下:

deactive vg            :  varyoffvg hboravg

四、在212下导入:

导入vg               : Importvg -V mainNum -y hboravg

在212下可以正常显示vg中的lv,一般是lv的type显示不是??就能够断定为正            常

五、211和212端所有deactive vg

执行指令                            :varyoffvg hboravg

 

4、启动集群,激活gsclvmd进程,经过该进程来active并发vg,测试vg是否能够同步

一、启动集群,由于varyonvg -c hboravg激活到enhanced concurrent模式时必须有gsclvmd      进程,可是gsclvmd进程是由ha启动的,因此在激活前必须有gsclvmd进程存在

 

查看进程指令:ps  -ef | grep gsclvmd

 

二、激活vg到enhanced concurrent模式

211和212端所有执行指令:varyonvg -c hboravg

vg激活后显示的状态不是active而是concurrent

三、测试是不是并发vg

在211端建立testlv,正常状况应该是自动同步到212端

在212端显示vg的状况:lsvg -l  hboravg

应该能够显示出在211端建立的lv,正常状况自动推送到212端

在212下:

cd  /dev

ls  -l *test*

能够正常显示vg和lv对应的设备文件

5、添加并发vg到ha中,测试心跳是否成功

一、直接添加Configure HACMP Communication Interfaces/Devices

选择:  Devices

选择: aix211 hdisk8 和aix212 hdisk8

二、同步集群

三、测试

(i)资源组目前运行在211上,

ifconfig en0 down :资源切到了211的en1网卡上

ifconfig en1 down :资源应该切换到212的en0上,同时seviceIP在211上消                       失

(ii)在212下,查看并确认资源切换是否成功,心跳是否成功

在212端: ifconfig -a  |service IP资源应该能够成功切换到212上

重启211的两个网卡en0和en1,资源仍然正常运行在212节点上,而且212节点            不会死机,应该能够正常接管资源组。

6、HA脑裂问题解决

总结:

整个过程操做顺序:

建立hboravg---->建立cluster--->add node--->descover---->add network-->add interface--

-->config resource --->add resource group --->资源装车show/change---->同步集群到                各个节点---->启动集群---->varyonvg -c hboravg启动到Enhanced Concurrent模式---

---->建立测试lv验证并发vg----add device hdisk8(心跳磁盘)---->同步集群到各个节点

--->down网卡测试心跳盘是否生效

本文由 虾米 首发于【漫兮网http://www.manxinet.com)】未经容许不得以任何方式转载,违者必将追究法律责任

相关文章
相关标签/搜索