ITPub博客

首页 > Linux操作系统 > Linux操作系统 > 【实验】使用 VMware 在 Linux 5.1 上安装、升级及维护 Oracle 10gR2 RAC (三)

【实验】使用 VMware 在 Linux 5.1 上安装、升级及维护 Oracle 10gR2 RAC (三)

原创 Linux操作系统 作者:secooler 时间:2009-02-25 11:15:46 0 删除 编辑
----集群的配置
一.设置SSH,
1.在主节点RAC1上以oracle用户身份生成用户的公匙和私匙
# ping 192.168.1.101
# ping 192.168.2.101
# su - oracle
$ mkdir ~/.ssh
$ ssh-keygen -t rsa
$ ssh-keygen -t dsa

2.在副节点RAC2上执行相同的操作,确保通信无阻
# ping 192.168.1.100
# ping 192.168.2.100
# su - oracle
$ mkdir ~/.ssh
$ ssh-keygen -t rsa
$ ssh-keygen -t dsa

3.在主节点RAC1上oracle用户执行以下操作
$ cat ~/.ssh/id_rsa.pub >> ./.ssh/authorized_keys
$ cat ~/.ssh/id_dsa.pub >> ./.ssh/authorized_keys
$ ssh rac2 cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
$ ssh rac2 cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
$ scp ~/.ssh/authorized_keys rac2:~/.ssh/authorized_keys

4.主节点RAC1上执行检验操作
$ ssh rac1 date
$ ssh rac2 date
$ ssh rac1-priv date
$ ssh rac2-priv date

5.在副节点RAC2上执行检验操作
$ ssh rac1 date
$ ssh rac2 date
$ ssh rac1-priv date
$ ssh rac2-priv date

二.设置RSH
1.首先,确保集群中的两个 Oracle RAC 节点上都安装了 rsh RPM
# rpm -q rsh rsh-server
2.如果未安装 rsh,则可以从 RPM 所在的 CD 中运行以下命令
# su -
# rpm -ivh rsh-0.17-25.4.i386.rpm rsh-server-0.17-25.4.i386.rpm
3.两个节点分别执行下面的命令,因为要启用"rsh"和"rlogin"服务,必须将 /etc/xinetd.d/rsh 文件中的"disable"属性设置为"no"并且必须重新加载 xinetd。
# su -
# chkconfig rsh on
# chkconfig rlogin on
# service xinetd reload
4.两个节点上分别创建 /etc/hosts.equiv 文件,使"oracle"用户帐户在 RAC 节点中获得信任
# su -
# touch /etc/hosts.equiv
# chmod 600 /etc/hosts.equiv
# chown root.root /etc/hosts.equiv
5.将两个节点添加到集群中类似于以下示例的两个 Oracle RAC 节点的 /etc/hosts.equiv 文件中:
# cat >> /etc/hosts.equiv << EOF
+RAC1 oracle
+RAC2 oracle
+RAC1-priv oracle
+RAC2-priv oracle
EOF
6.尝试测试 rsh 命令前,确保使用的是正确版本的 rsh。在默认情况下,Red Hat Linux 将 /usr/kerberos/sbin 放在 $PATH 变量的前面。这会导致执行rsh 的 Kerberos 版本。
我通常会重命名 rsh 的 Kerberos 版本,以便使用正常的 rsh 命令。使用以下命令:
# su -
# which rsh
/usr/kerberos/bin/rsh
# mv /usr/kerberos/bin/rsh /usr/kerberos/bin/rsh.original
# mv /usr/kerberos/bin/rcp /usr/kerberos/bin/rcp.original
# mv /usr/kerberos/bin/rlogin /usr/kerberos/bin/rlogin.original
# which rsh
/usr/bin/rsh
7.在两个节点(RAC1和RAC2)使用如下命令进行验证
# su - oracle
$ rsh rac1 ls -l /etc/hosts.equiv
$ rsh rac1-priv ls -l /etc/hosts.equiv
$ rsh rac2 ls -l /etc/hosts.equiv
$ rsh rac2-priv ls -l /etc/hosts.equiv

(注意:安装10g版本的数据库的时候,只需要配置SSH,RSH是早期版本安装需要的,因为安全性的问题渐渐不被人使用)

三. 配置共享磁盘
1.主节点RAC1配置共享磁盘
# /etc/init.d/oracleasm configure
依据提示信息输入:oracle --> dba --> y --> y
2.副节点RAC2配置共享磁盘
# /etc/init.d/oracleasm configure
依据提示信息输入:oracle --> dba --> y --> y
3.仅在主节点RAC1上操作,创建卷组VOL1/VOL2,分别对应/dev/sdd1和/dev/sde1
# /etc/init.d/oracleasm createdisk VOL1 /dev/sdd1
# /etc/init.d/oracleasm createdisk VOL2 /dev/sde1
4.主节点RAC1扫描,显示
# /etc/init.d/oracleasm scandisks
# /etc/init.d/oracleasm listdisks
VOL1
VOL2
5.副节点RAC2扫描,显示
# /etc/init.d/oracleasm scandisks
# /etc/init.d/oracleasm listdisks
VOL1
VOL2

----Clusterware 安装
注意:安装这步之前确保两个节点的时间一致,同时保证主节点RAC1的时间滞后副节点RAC2三秒!
1.上传10201_clusterware_linux32.zip到"hsw_media"文件系统(service vsftpd start手工开启ftp服务),以unzip命令解压clusterware软件,赋予正确的权限和属主,再以oracle身份登陆进行图形界面安装
# cd /hsw_media
# chown -R oracle:oinstall clusterware
# chmod -R 777 clusterware
2.打开一个终端窗口
3.打开图形化限制
# xhost +
4.在安装之前oracle用户下要检查当前的环境,有一些软件包缺失类的报错可以忽略
# su - oracle
$ cd /hsw_media/clusterware/cluvfy
$ ./runcluvfy.sh stage -pre crsinst -n rac1,rac2 -verbose
5.以oracle用户进入到clusterware目录,以不进行系统环境检查的机制运行runInstaller,因为默认redhat-5是不支持clusterware的安装
# su - oracle
$ cd /hsw_media/clusterware/
$ ./runInstaller -ignoreSysPreReqs
6.稍微等上三、五秒钟,就能看到clusterware的安装界面,点击"Next"
7.根据我在oracle环境变量中的定义,系统默认将oraInventory目录安装到/oracle/app/oraInventory下,点击"Next":
        Enter the full path of the inventory directory: /oracle/app/oracle/oraInventory
                   Specify Operation System group name: oinstall
8.定义clusterware的安装路径,点击"Next"
        Name: OraCrs10g_home
        Path: /oracle/app/crs
9.又到了安装前期的环境检查,这里需要把握的就是,凡是系统检查没有报告"failed",那么就不用管,"warning"或者"not executed"都没有关系,只要我们在对应的小方框里面打勾就可以了
10.Specify Cluster Configuration 这个地方系统默认只显示一个节点,另一个节点需要我们手工添加进来
        点击"Add..."
         Public Node Name: rac2
        Private Node Name: rac2-priv
        virtual Host Name: rac2-vip
11.指定网卡类型,这里系统把所有可用的网卡都扫描进来,我们只用到eth0跟eth1,除了手工屏蔽掉eth2跟virbr0之外(设置为not use),还需要把eth0设置为public方式,eth1设置为Private
12.导入ocr所对应裸设备路径,点击"Next"
        选择"External Redundancy"
        Specify OCR Location: /dev/raw/raw1
13.导入"vote"所对应裸设备路径,点击"Next"
        选择"External Redundancy"
        Voting Disk Location: /dev/raw/raw2
14.磁盘、网络、安装路径设置完之后,下面开始正式的安装过程,点击"Install",主节点安装完成后,系统会自动往RAC2对应目录下拷贝clusterware的所有文件。
15.安装过程完成之后,需要两个节点各自以root身份运行一些小脚本
16.RAC1节点执行orainstRoot.sh:
# cd /oracle/app/oracle/oraInventory/
# ./orainstRoot.sh
17.RAC2节点执行orainstRoot.sh:
# cd /oracle/app/oracle/oraInventory/
# ./orainstRoot.sh
18.RAC1节点执行root.sh
# cd /oracle/app/crs/
# ./root.sh
19.RAC2节点上执行root.sh之前需要编辑两个文件,这两个文件都位于/oracle/app/crs/bin下,文件名分别为vipca和srvctl,需要unset LD_ASSUME_KERNEL
# vi /oracle/app/crs/bin/vipca
if [ "$arch" = "i686" -o "$arch" = "ia64" ]
then
LD_ASSUME_KERNEL=2.4.19
export LD_ASSUME_KERNEL
fi
#End workaround
在fi 后新添加一行:
unset LD_ASSUME_KERNEL

然后编辑srvctl文件,找到如下内容:
# vi /oracle/app/crs/bin/srvctl
LD_ASSUME_KERNEL=2.4.19
export LD_ASSUME_KERNEL
同样在其后新增加一行:
unset LD_ASSUME_KERNEL

对应的报错信息是:
/oracle/app/product/10.2.0/crs_1/jdk/jre//bin/java: error while loading shared libraries: libpthread.so.0:
cannot open shared object file: No such file or directory

20.然后到RAC2节点下用root用户身份执行/oracle/app/crs下的root.sh
1).这里还会报错,处理方法如下:
# cd /oracle/app/crs/bin
# ./oifcfg iflist
# ./oifcfg setif -global eth0/192.168.1.0:public
# ./oifcfg setif -global eth1/192.168.2.0:cluster_interconnect
# ./oifcfg getif
2).图形界面RAC2副节点(此步骤亦可以在RAC1主节点进行操作):
# cd /oracle/app/crs/bin
# ./vipca
点击"Next
3).系统自动找到public的eth0,点击"Next"
4).在空白处填写各节点对应的vip名称以及IP地址(其实只要填写RAC1的vip名称"rac1-vip",再点其他空白处,就自动获取出来了),点击"Next"
输入后信息如下:
Node name IP Alias Name IP address Subnet Mask
rac1 rac1-vip 192.168.1.200 255.255.255.0
rac2 rac2-vip 192.168.1.201 255.255.255.0
5).点击"Finish",开始安装
        提示信息如下:
        Creating VIP application resource on (2) nodes
        Creating GSD application resource on (2) nodes
        Creating ONS application resource on (2) nodes
        Starting VIP application resource on (2) nodes
        Starting GSD application resource on (2) nodes
        Starting ONS application resource on (2) nodes
6).安装完之后就可以点击"ok"退出了

21.vipca执行成功后,那么相当于RAC2的 root.sh也顺利完成使命,下一步需要做的就是返回到RAC1节点,执行剩下的步骤
        涉及到下面的三个配置和验证,通常,第三部的验证如果不通过不影响后续的安装,不过如果严格按照前面的步骤进行操作这里是不会出现问题的。
        Oracle Notification Server Configuration Assistant
        Oracle Private Interconnect Configuration Assistant
        Oracle cluster Verification Utility
22.收到"The installation of Oracle Clusterware was successful." 提示信息后,点击"Exit","Yes"推出整个的clusterware的安装过程
23.验证安装成功的方法
[root@rac1 ~]# cd /oracle/app/crs/bin
[root@rac1 bin]# ./crs_stat -t
Name           Type           Target    State     Host        
------------------------------------------------------------
ora.rac1.gsd   application    ONLINE    ONLINE    rac1        
ora.rac1.ons   application    ONLINE    ONLINE    rac1        
ora.rac1.vip   application    ONLINE    ONLINE    rac1        
ora.rac2.gsd   application    ONLINE    ONLINE    rac2        
ora.rac2.ons   application    ONLINE    ONLINE    rac2        
ora.rac2.vip   application    ONLINE    ONLINE    rac2

[root@rac2 ~]# cd /oracle/app/crs/bin
[root@rac2 bin]# ./crs_stat -t
Name           Type           Target    State     Host        
------------------------------------------------------------
ora.rac1.gsd   application    ONLINE    ONLINE    rac1        
ora.rac1.ons   application    ONLINE    ONLINE    rac1        
ora.rac1.vip   application    ONLINE    ONLINE    rac1        
ora.rac2.gsd   application    ONLINE    ONLINE    rac2        
ora.rac2.ons   application    ONLINE    ONLINE    rac2        
ora.rac2.vip   application    ONLINE    ONLINE    rac2
24.到此集群软件的安装结束。

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/519536/viewspace-557697/,如需转载,请注明出处,否则将追究法律责任。

请登录后发表评论 登录
全部评论
Oracle ACE 总监,阿里云MVP,北京大学理学硕士,恩墨学院创始人,教育专家,中国区 Cloudera 首位官方授权大数据讲师,金牌培训专家,BDA大数据联盟创始人,OCM联盟创始人,ACCUG创始人、ACOUG核心专家,Blogger。

注册时间:2008-03-16

  • 博文量
    797
  • 访问量
    8040116