双节点安装,node一、node2css
第一块磁盘的大小为50G,安装RHEL6.4 及 GI,Oracle Software。
第二块磁盘的大小为60G,使用udev配置成asm的磁盘。
node
第一块盘安装好操做系统,进入系统
chkconfig cups off
chkconfig sendmail off
chkconfig isdn off
chkconfig smartd off
chkconfig iptables off
shutdown -h now
添加第二块硬盘,必须是共享盘
node1 添加硬盘
硬件类型:硬盘
建立磁盘:新建虚拟磁盘
磁盘容量:60GB
磁盘置备:厚置备置零
数据存储:VMS_TEST_2
虚拟设备节点: SCSI(1:0)
磁盘模式:独立持久
厚置备置零 建立磁盘较慢,需耐心等待
上述工做完成后,回到虚拟机设备界面,会看到除新的硬盘外,还有一个“新的SCSI控制器”:
点击 新的SCSI控制器 ,选中右边的 “虚拟”,或者“物理” 按钮,表明能够虚拟磁盘能够共享
node2 添加刚才的第二块硬盘,注意是选择“使用现有虚拟磁盘”,找到node1 前面磁盘的那个磁盘文件
硬件类型:硬盘
建立磁盘:使用现有磁盘
虚拟设备节点: SCSI(1:0)
数据文件路径:node1 的外加硬盘
磁盘模式:独立持久
上述工做完成后,回到虚拟机设备界面,会看到除新的硬盘外,还有一个“新的SCSI控制器”:
点击 新的SCSI控制器 ,选中右边的 “虚拟”,或者“物理” 按钮,表明能够虚拟磁盘能够共享,与前面保持一致就能够
至此,添加共享磁盘结束
IP 规划,先安装node1,node2 两个节点
10.1.1.35 node1
10.1.1.36 node2
10.1.1.45 node1-vip
10.1.1.46 node2-vip
10.2.1.35 node1-priv
10.2.1.36 node2-priv
10.1.1.40 nodescan
-- 默认网关必须设置
vi /etc/sysconfig/networklinux
NETWORKING=yes
NETWORKING_IPV6=no
HOSTNAME=node1
vi /etc/sysconfig/network-scripts/ifcfg-eth0c++
DEVICE=eth0
BOOTPROTO=static
HWADDR=00:0C:29:59:4B:00
ONBOOT=yes
IPADDR=10.1.1.35
NETMASK=255.255.255.0
GATEWAY=10.1.1.1
vi /etc/sysconfig/network-scripts/ifcfg-eth1shell
DEVICE=eth1
BOOTPROTO=static
HWADDR=00:0C:29:59:4B:0A
ONBOOT=yes
IPADDR=10.2.1.35
NETMASK=255.255.255.0
GATEWAY=10.2.1.1
--重启网络服务,使修改生效
service network restart
vi /etc/hosts
10.1.1.35 node1
10.1.1.36 node2
10.1.1.44 node1-vip
10.1.1.46 node2-vip
10.2.1.35 node1-priv
10.2.1.36 node2-priv
10.1.1.40 nodescan
创建oracle,grid用户,在node1,node2 两个节点都要执行,必须用-g -u 来保证用户ID、组ID 一致
groupadd -g 501 oinstall
groupadd -g 502 dba
groupadd -g 503 oper
groupadd -g 504 asmadmin
groupadd -g 505 asmdba
groupadd -g 506 asmoper
useradd -u 1100 -g oinstall -G asmdba,dba,oper oracle
useradd -u 1110 -g oinstall -G asmadmin,asmdba,asmoper,dba,oper grid
passwd oracle
passwd grid
--能够按照以下步骤手动配置SSH等效用户,也能够安装软件界面时有ssh的等效性配置
--确保 grid 《=》 grid,oracle《=》oracle
不能一次copy,要逐条执行。
在node1:oracle,grid 用户下
mkdir ~/.ssh
chmod 700 ~/.ssh
ssh-keygen -t rsa
ssh-keygen -t dsa
在node2:oracle,grid 用户下
mkdir ~/.ssh
chmod 700 ~/.ssh
ssh-keygen -t rsa
ssh-keygen -t dsa
在node1:oracle,grid 用户下
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
scp ~/.ssh/authorized_keys node2:~/.ssh/authorized_keys
在node2:oracle,grid 用户下
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
scp ~/.ssh/authorized_keys node1:~/.ssh/authorized_keys
在两台机器上都坐下测试
在node1:oracle,grid 用户下
ssh node1 date
ssh node2 date
ssh node1-priv date
ssh node2-priv date
在node2:oracle,grid 用户下
ssh node1 date
ssh node2 date
ssh node1-priv date
ssh node2-priv date
如若失败(提示要求输入密码,可输入或为空)可再次执行上面语句
建立目录,node1,node2 两个节点上都要执行
注意数据库
grid用户下的ORACLE_BASE 和ORACLE_HOME 是并列的,不是包含的关系,bash
oracle用户下的ORACLE_BASE 和ORACLE_HOME依旧是包含的关系
root 用户下
-- grid 用户
mkdir -p /u01/app/gridbase
mkdir -p /u01/app/grid/product/11.2.0/grid_1
chown -R grid:oinstall /u01
-- oracle 用户
mkdir -p /u01/app/oracle/product/11.2.0/db_1
chown -R oracle:oinstall /u01/app/oracle
chmod -R 775 /u01/
使用udev绑定硬件,node1,node2 两个节点上都要执行
rhel 6 从内核层级剔除了 asmlib 相关的代码,须要使用udev来绑定硬件
若是是 oel 6 ,使用 asmlib 或者 udev均可以
11gr2能够将ocr,votedisk 放在asm里,不须要额外配置裸设备
1. 在 /etc/udev/rules.d/99-oracle-asmdevices.rules 配置设备了
# cd /etc/udev/rules.d/
# touch 99-oracle-asmdevices.rules
#添加记录到/etc/scsi_id.config,若是没有该文件,则手动建立
echo "options=--whitelisted --replace-whitespace" >> /etc/scsi_id.config
2. 将结果复制到 /etc/udev/rules.d/99-oracle-asmdevices.rules
没有对sdb进行分区,执行以下shell脚本,
for i in b ;
do
echo "KERNEL==\"sd*\", BUS==\"scsi\", PROGRAM==\"/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/\$name\", RESULT==\"`/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/sd$i`\", NAME=\"asm-disk$i\", OWNER=\"grid\", GROUP=\"asmadmin\", MODE=\"0660\""
done
对sdb 进行了分区,执行以下shell脚本,
for i in b1 b2 b3
do
echo "KERNEL==\"sd$i\", BUS==\"scsi\", PROGRAM==\"/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/\$parent\", RESULT==\"`/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/sd${i:0:1}`\", NAME=\"asm-disk$i\", OWNER=\"grid\", GROUP=\"asmadmin\", MODE=\"0660\""
done;
注意未分区用 $name
分区用 $parent
3. vi /etc/udev/rules.d/99-oracle-asmdevices.rules
没有对sdb进行分区
KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="36000c2948ef9d9e4a7937bfc65888bc8", NAME="asm-diskb", OWNER="grid", GROUP="asmadmin", MODE="0660"
若是对裸盘分区的话应该是这个样子
在 Linux 5下,可使用以下命令:
# /sbin/scsi_id -g -u -s /block/sdb/sdb1
在 Linux 6下,可使用以下命令:
# /sbin/scsi_id -g -u /dev/sdb1
这是分区盘的 99-oracle-asmdevices.rules内容
KERNEL=="sd?1", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$parent", RESULT=="36000c2948ef9d9e4a7937bfc65888bc8", NAME="asm-diskb1", OWNER="grid", GROUP="asmadmin", MODE="0660"
KERNEL=="sd?2", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$parent", RESULT=="36000c2948ef9d9e4a7937bfc65888bc8", NAME="asm-diskb2", OWNER="grid", GROUP="asmadmin", MODE="0660"
KERNEL=="sd?3", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$parent", RESULT=="36000c2948ef9d9e4a7937bfc65888bc8", NAME="asm-diskb3", OWNER="grid", GROUP="asmadmin", MODE="0660"
Load updated block device partition tables.服务器
# /sbin/partprobe /dev/sdb1
# /sbin/partprobe /dev/sdb2
# /sbin/partprobe /dev/sdb3
4. 用udevadm进行测试,注意udevadm命令不接受/dev/sdc这样的挂载设备名,必须是使用/sys/block/sdb这样的原始设备名。
udevadm test /sys/block/sdb
udevadm info --query=all --path=/sys/block/sdb
udevadm info --query=all --name=asm-diskb
udevadm info --query=all --name=asm-diskb1
udevadm info --query=all --name=asm-diskb2
udevadm info --query=all --name=asm-diskb3
在显示中,有相似以下输出,表示测试正确,/dev/sdb设备在udev启动之后将会绑定为/dev/asm-diskb:
udevadm_test: UDEV_LOG=6
udevadm_test: DEVPATH=/devices/pci0000:00/0000:00:16.0/0000:0b:00.0/host1/target1:0:0/1:0:0:0/block/sdb
udevadm_test: MAJOR=8
udevadm_test: MINOR=16
udevadm_test: DEVNAME=/dev/sdb
udevadm_test: DEVTYPE=disk
udevadm_test: ACTION=add
udevadm_test: SUBSYSTEM=block
5. 启动udev
#/sbin/udevadm control --reload-rules
#/sbin/start_udev
6. 检查设备是否正确绑定
# ls -l /dev/asm*
brw-rw---- 1 grid dba 8, 32 Oct 26 21:24 /dev/asm-diskb1
brw-rw---- 1 grid dba 8, 48 Oct 26 21:17 /dev/asm-diskb2
brw-rw---- 1 grid dba 8, 48 Oct 26 21:17 /dev/asm-diskb3
配置用户的配置文件,node1,node2 两个节点上都要执行,注意ORACLE_SID的差别
oracle 用户的.bash_profile 文件,注意节点不一样,ORACLE_SID也是不同的
vi /home/oracle/.bash_profile
export ORACLE_BASE=/u01/app/oracle
export ORACLE_HOME=$ORACLE_BASE/product/11.2.0/db_1
export ORACLE_SID=rac01
#export ORACLE_SID=rac02
#export TNS_ADMIN=$ORACLE_HOME/network/admin
#export ORA_NLS10=$ORACLE_HOME/nls/data
export NLS_LANG=AMERICAN_AMERICA.ZHS16GBK
export NLS_DATE_FORMAT='YYYY-MM-DD HH24:MI:SS'
export PATH=.:${PATH}:$HOME/bin:$ORACLE_HOME/bin
export PATH=${PATH}:/usr/bin:/bin:/usr/bin/X11:/usr/local/bin
export PATH=${PATH}:$ORACLE_BASE/common/oracle/bin
export LD_LIBRARY_PATH=$ORACLE_HOME/lib
export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:$ORACLE_HOME/oracm/lib
export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:/lib:/usr/lib:/usr/local/lib
export CLASSPATH=$ORACLE_HOME/JRE
export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/jlib
export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/rdbms/jlib
export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/network/jlib网络
export TEMP=/tmp
export TMP=/tmp
export TMPDIR=/tmpsession
grid 用户的.bash_profile 文件, ORACLE_HOSTNAME请自行设置,注意节点不一样,ORACLE_SID也是不同的
vi /home/grid/.bash_profile
export ORACLE_BASE=/u01/app/gridbase
export ORACLE_HOME=/u01/app/grid/product/11.2.0/grid_1
export ORACLE_SID=+ASM1
#export ORACLE_SID=+ASM2
export PATH=$ORACLE_HOME/bin:$PATH
export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib
export CLASSPATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib:$ORACLE_HOME/rdbms/jlib
export TEMP=/tmp
export TMP=/tmp
export TMPDIR=/tmp
配置yum,安装依赖的rpm,node1,node2 两个节点上都要执行
vi /etc/yum.conf
追加以下内容
[base]
name=base pyb yum test
baseurl=file:///mnt/cdrom
gpgkey=file:///mnt/cdrom/RPM-GPG-KEY-redhat-release
[updates-released]
name= updates-released pyb yum test
baseurl=file:///mnt/cdrom
gpgkey=file:///mnt/cdrom/RPM-GPG-KEY-redhat-release
修改其中的 gpgcheck参数,改成gpgcheck=0
修改其中的 enabled参数,改成enabled=1
sftp 上传 GI,DATABASE 软件,上传到node1 节点就能够了
chown grid:oinstall p10404530_112030_Linux-x86-64_3of7.zip
chown oracle:oinstall p10404530_112030_Linux-x86-64_1of7.zip
chown oracle:oinstall p10404530_112030_Linux-x86-64_2of7.zip
gird 用户下安装
unzip p10404530_112030_Linux-x86-64_3of7.zip
grid 用户下验证安装环境
./runcluvfy.sh stage -pre crsinst -n node1,node2 -verbose
以下的包必需安装
Oracle Linux 6 and Red Hat Enterprise Linux 6
The following packages (or later versions) must be installed:
binutils-2.20.51.0.2-5.11.el6 (x86_64)
compat-libcap1-1.10-1 (x86_64)
compat-libstdc++-33-3.2.3-69.el6 (x86_64)
compat-libstdc++-33-3.2.3-69.el6.i686
gcc-4.4.4-13.el6 (x86_64)
gcc-c++-4.4.4-13.el6 (x86_64)
glibc-2.12-1.7.el6 (i686)
glibc-2.12-1.7.el6 (x86_64)
glibc-devel-2.12-1.7.el6 (x86_64)
glibc-devel-2.12-1.7.el6.i686
ksh
libgcc-4.4.4-13.el6 (i686)
libgcc-4.4.4-13.el6 (x86_64)
libstdc++-4.4.4-13.el6 (x86_64)
libstdc++-4.4.4-13.el6.i686
libstdc++-devel-4.4.4-13.el6 (x86_64)
libstdc++-devel-4.4.4-13.el6.i686
libaio-0.3.107-10.el6 (x86_64)
libaio-0.3.107-10.el6.i686
libaio-devel-0.3.107-10.el6 (x86_64)
libaio-devel-0.3.107-10.el6.i686
make-3.81-19.el6
sysstat-9.0.4-11.el6 (x86_64)
unixODBC-2.2.14-11.el6 (x86_64) or later
unixODBC-2.2.14-11.el6.i686 or later
unixODBC-devel-2.2.14-11.el6 (x86_64) or later
unixODBC-devel-2.2.14-11.el6.i686 or later
rpm -q binutils compat-libstdc++-33 elfutils gcc glibc libaio libgcc libstdc++ make sysstat unixODBC unixODBC-devel
修改OS 参数,node1,node2 两个节点上都要执行
vi /etc/sysctl.conf
#kernel.shmall = 2097152
#kernel.shmmax = 536870912
kernel.shmmni = 4096
kernel.sem = 250 32000 100 128
fs.aio-max-nr = 1048576
fs.file-max = 6815744
net.ipv4.ip_local_port_range = 9000 65500
net.core.rmem_default = 262144
net.core.rmem_max = 4194304
net.core.wmem_default = 262144
net.core.wmem_max = 1048586
sysctl -p 当即生效
vi /etc/security/limits.conf
grid soft nproc 655350
grid hard nproc 655350
grid soft nofile 655350
grid hard nofile 655350
orcle soft nproc 655350
orcle hard nproc 655350
orcle soft nofile 655350
orcle hard nofile 655350
vi /etc/pam.d/login
session required /lib64/security/pam_limits.so
session required pam_limits.so
vi /etc/selinux/config
SELINUX=disabled
清除 ntp 服务,node1,node2 两个节点上都要执行
oracle在grid安装时须要从新配置(CTSS),避免冲突,事先清除
[root@node1 /]# /sbin/service ntpd stop
Shutting down ntpd: [FAILED]
[root@node1 /]# chkconfig ntpd off
[root@node1 /]# mv /etc/ntp.conf /etc/ntp.conf.201604213
或者
[root@node1 /]# rm -rf /etc/ntp.conf
哇塞哇塞,基础工做终于作完了,开始安装clusterware,
Step 1 of 18: Download Software Updates
Skip software updates
Step 2 of 18: Select Installation Option
Install and Configure Grid Infrastructure for a Cluster
Step 3 of 18: Select Installation Type
Advanced Installation
Step 4 of 18: Select Product Languages
English
Step 5 of 18: Grid Plug and Play Information
Cluser Name :node
SCAN Name :nodescan
SCAN Port :1521
GNS 不配置
Step 6 of 16: Cluster Node Information
click Add ,then input Public Hostname: node2
Virtual Hostname: node2-vip
click SSH Connectivity,then input OS Password:
始终失败,就须要手动配置了,参考前面被注释的代码
Step 7 of 18: Specify Network Interface Usage
eth0 public
eth1 private
INS-41113: 说明 public 和 private 不能在同一网段
eth0 10.1.1.0 public
eth1 10.2.1.0 private
Step 8 of 18:Storage Option Information
Oracle Automatic Storage Management(Oracle ASM)
Step 9 of 18:Create ASM Disk Group
Disk Group Name: DG_DATA_001
Redundancy:External
AU Size:1 MB
ORCL:VOL1
ORCL:VOL2
Step 10 of 18:Specify ASM Password
Use sames passwords for these accounts
XXXXX
SYS
ASMSNMP
Step 11 of 18:Failure Isolation Support
Do not user Intelligent Platform Management Interface(IPMI)
Step 12 of 18:Privileged Operating System Groups
asmdba
asmoper
asmadmin
Step 13 of 18:Specify Installatin Location
Oracle Base: /u01/app/gridbase
Software Location: /u01/app/grid/product/11.2.0/grid_1
Step 14 of 18:Create Inventory
Inventory Directory: /u01/app/oraInventroy
Step 15 of 18:Perform Prerequisite Checks
Grid的安装须要检查如下几项:
一、
物理内存、交换空间
二、
内核参数的设置
三、
软件包是否知足
四、
NTP是否配置
若是Fixable列显示的是YES,则咱们能够经过脚本进行修复,咱们须要点击“Fix&Check Again”,系统会自动生成SHELL脚本进行修复。对于NTP咱们能够忽略
缺乏的rpm包用 yum install 安装就能够了。
反复多check 几回
Task resolv.conf Integrity 是因为没有使用DNS,能够忽略
Step 16 of 18:Summary
Save Response File : /home/grid/grid.rsp
Step 17 of 18:Install Product
/u01/app/oraInventory/orainstRoot.sh node1,node2
/u01/app/grid/product/11.2.0/grid_1/root.sh node1,node2
Step 18 of 18:Finish
能否用 '/etc/hosts'来解析 SCAN而不用 DNS或 GNS?
Oracle强烈建议不要在 hosts文件中配置SCAN IP 地址。可是可使用hosts文件来解析SCAN IP,
只不过只能解析成一个SCAN IP地址。
若是使用 hosts文件来解析 SCAN名称,则在安装结束时会遇到ClusterVerification Utility失败错误,
详细信息请见metalink文章 NOTE 887471.1 。
最后一步 验证节点时间时有可能会出错,若是前期对ntpd作了修改,应该不会出现这个错误。
INFO: Check CTSS state started...
INFO: CTSS is in Active state. Proceeding with check of clock time offsets on all nodes...
INFO: PRVF-9661 : Time offset is greater than acceptable limit on node "rac2" [actual = "-283800.0", acceptable = "1000.0" ]
INFO: PRVF-9652 : Cluster Time Synchronization Services check failed
node1,node2两个节点的grid用户下运行 oifcfg 命令配置或查看:
[grid@node1 bin]# ./oifcfg setif -global eth0/10.1.1.0:public
[grid@node1 bin]# ./oifcfg setif -global eth1/10.2.1.0:cluster_interconnect
[grid@node1 bin]# ./oifcfg getif
eth0 10.1.1.0 global public
eth1 10.2.1.0 global cluster_interconnect
clusterware 就安装结束.
确认一下CRS的安装状况
$ ls -l /etc/init.d/init.*
grid 用户下
$ ORACLE_HOME/bin/olsnodes -n
$ ORACLE_HOME/bin/crsctl check has
$ ORACLE_HOME/bin/crsctl check crs
$ ORACLE_HOME/bin/crsctl check ctss
$ ORACLE_HOME/bin/crsctl check css
$ ORACLE_HOME/bin/crsctl check evm
$ ORACLE_HOME/bin/crsctl check cluster
$ ORACLE_HOME/bin/crsctl check cluster -all
$ ORACLE_HOME/bin/crsctl get css misscount
$ ORACLE_HOME/bin/crsctl get css disktimeout
$ ORACLE_HOME/bin/crsctl get css reboottime
$ ORACLE_HOME/bin/crsctl get css diagwait
$ ORACLE_HOME/bin/crsctl query css votedisk
$ ORACLE_HOME/bin/crsctl status resource
$ ORACLE_HOME/bin/crsctl status resource -t -init
$ ORACLE_HOME/bin/crs_stat -t -v
建立asm磁盘(asm实例在clusterware安装过程已经建立),运行asmca,建立DG_DATA_001
或者在前面都已经建立完毕
clusterware终于安装完了,开始安装database(仅安装数据库软件)
下一步,一直下一步 注意选择 only database software
Step 4 of 10 Grid Installation Options
oracle用户下的SSH 等效性, 前面配置额等效性,这里check 一下就行了。
Step 9 of 10 Perform Prerequisite Checks
安装RAC数据库出现PRCT-1011错误。
详细错误信息为:
An internal error occurred within cluster verification framework
Unable to obtain network interface list from Oracle
ClusterwarePRCT-1011: Failed to run “oifcfg”. Detailed error: null
致使这个错误的缘由ORA_NLS10环境变量设置有误。能够将不设置这个环境变量,或将其设置到正确的位置:
unset ORA_NLS10
ORA_NLS10的正确的位置指向$GRID_HOME/nls/data,取消设置或将其设置到正确的位置后,从新启动图形化安装工具既可。
PRCT-1011错误还有多是OCR中记录的网络设置不正确,具体描述能够参考metalink文档 [ID 1380183.1]。
以后运行
/u01/app/oracle/product/11.2.0/db_1/root.sh node1,node2
分别运行后 数据库软件就算安装完毕了
开始建立数据库,运行dbca
[oracle@node1 database]$ dbca
选择RAC database
create database
选择全部节点
选择custom database
注意存储时选择ASM,
Database Services 这里,
你选择Add你一个新的service, 随便叫名字,好比pyb。而后选择 TAF Policy,是Basic。 这个服务在RAC
的Failover中会用到,若是在这里没有配置,也能够经过dbca命令, 选择 Services Management 来进行配置。
Service 是 oracle ha 在服务器端 fail_over 的一种手段,11g用scan来处理
后面和单实例的就没啥区别了!
检查及错误处理
1) LOCAL_LISTENER和REMOTE_LISTENER
local_listener
string
(DESCRIPTION=(ADDRESS_LIST=(AD
DRESS=(PROTOCOL=TCP)(HOST=10.
1.1.44)(PORT=1521))))
remote_listener
string nodescan:1521
2) ASM实例的spfile
vi init+ASM1.ora
asm_diskgroups='DG_DATA01'
asm_diskstring='/dev/asm*'
asm_power_limit=1
instance_type='asm'
large_pool_size=12M
remote_login_passwordfile='EXCLUSIVE'
STARTUP pfile=init+ASM1.ora
3) 查看 miscount,虚拟机,若是性能差,要修改
crsctl get css misscount
crsctl set css misscount 400
crsctl get css disktimeout
crsctl set css disktimeout 500
crsctl get css reboottime
4) CRS-0184: Cannot communicate with the CRS daemon.
大部分缘由是由于CRS进程未启动,CSS进程未启动,致使的asm实例未启动,形成OCR没法访问,能够手动启动asm
强行杀掉后机器自动重启,而后
$ ps aux|grep crs|awk '{print "kill -9 " $2}'|sh
或者 root下运行
或者使用crsctl,root 用户下
$ORACLE_HOME/bin/crsctl stop crs
$ORACLE_HOME/bin/crsctl start crs
CRS-4123: Oracle High Availability Services has been started.
能够查看$ORACLE_HOME/log/alertrac1.log
能够查看$ORACLE_HOME/log/crsd/crsd.log
$ crsctl check crs
CRS-4638: Oracle High Availability Services is online
CRS-4537: Cluster Ready Services is online
CRS-4529: Cluster Synchronization Services is online
CRS-4533: Event Manager is online
5) CRS-4639: Could not contact Oracle High Availability Services
root 用户下
crsctl check has crsctl start has crsctl stop has