ITPub博客

首页 > Linux操作系统 > Linux操作系统 > Oracle 9.2.0.4 RAC + Linux AS3.0 如何动态加入一个新的节点

Oracle 9.2.0.4 RAC + Linux AS3.0 如何动态加入一个新的节点

原创 Linux操作系统 作者:tolywang 时间:2005-05-23 00:00:00 0 删除 编辑
目的:
这篇文章说明了在不需要shutdown资料库及重新启动已经在运行的服务的情况下动态加入一个新的9i RAC节点的大致步骤 (其中RAC硬件的配置修改, HBA卡及驱动安装,OCFS软件的安装,挂载点创建,共享磁盘的挂载 ,Linux参数修改, hosts修改等和RAC安装配置时候差不多,没有写出来 ) 。



配置:
这篇文章基于下面的RAC配置,但是可以应用于在Linux下的Oracle9i (9.2.0) RAC :
Red Hat Linux Advanced Server 2.1 with Errata 25 (2.4.9-e.40)
Oracle Cluster Manager 9.2.0.4.0
Oracle9i Real Application Cluster version 9.2.0.4.0
Oracle Server Enterprise Edition 9.2.0.4.0 for Linux
Two nodes, existing RAC cluster
One node , standalone RAC server
这个过程在Red Hat Enterprise Linux 3 (ES) 下的Oracle9i RAC 9.2.0.5 上测试成功。

现有的双节点RAC配置 :

Hostname Interface IP Address
existingnodes dell-node1 external 192.168.0.201
dell-pri1 internal 10.1.1.5
dell-node2 external 192.168.0.203
dell-pri2 internal 10.1.1.6
newnode dell-node3 external 192.168.0.205
dell-pri3 internal 10.1.1.7



已经存在的两个节点的Oracle Cluster Manager(ORACM) 配置文件
$ORACLE_HOME/oracm/admin/cmcfg.ora
两个已经存在的节点的Cluster Manager 的配置如下:
节点1 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2
PublicNodeNames=dell-node1 dell-node2
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri1
KernelModuleName=hangcheck-timer

节点2 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2
PublicNodeNames=dell-node1 dell-node2
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri2
KernelModuleName=hangcheck-timer



修改存在的两个节点的Oracle Cluster Manager(ORACM) 配置文件
$ORACLE_HOME/oracm/admin/cmcfg.ora
在所有存在的节点(这里是2个节点)上修改OCM配置文件,加入新的节点的Hostname 详细信息 。这个动作必须在新的节点上配置或开启Cluster Manager 之前完成 。 不这样做可能导致在新的节点或旧的节点上Cluster Manager 的失败 。
注意: 编辑而不是拷贝原始的 cmcfg.ora 文件(用于开启CM Service), 拷贝正在被使用的配置文件可能导致已经存在的节点上OCM运行的失败 。
节点1 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2 dell-pri3
PublicNodeNames=dell-node1 dell-node2 dell-node3
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri1
KernelModuleName=hangcheck-timer

节点2 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2 dell-pri3
PublicNodeNames=dell-node1 dell-node2 dell-node3
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri2
KernelModuleName=hangcheck-timer



在新的节点上配置Oracle Cluster Manager(ORACM) 配置文件
这一步假设Oracle Cluster Manager 软件已经正确的被安装到新的节点上(在新的节点上安装OCM比较容易),使它能够加入到已经存在的RAC节点上 。 在RAC的所有节点上的Cluster Manager 版本必须一样 。
如何检查已经存在OCM的版本: 打开CM的log文件, 可以查看到OCM的版本 。
dell-node2# grep –i version cm.log | more
在存在的两个节点上修改OCM配置文件完成后,就可以在安装了Oracle Cluster Manager 的新的节点上修改cmcfg.ora 配置文件了, 在新节点的配置文件中加入新节点的Hostname 等信息 。新节点上的cmcfg.ora 配置文件如下 :
节点3 :
HeartBeat=15000
ClusterName=Oracle Cluster Manager, version 9i
PollInterval=1000
MissCount=210
PrivateNodeNames=dell-pri1 dell-pri2 dell-pri3
PublicNodeNames=dell-node1 dell-node2 dell-node3
ServicePort=9998
CmDiskFile=/ocfs_index/quorum.dbf
HostName=dell-pri3
KernelModuleName=hangcheck-timer

在新的节点上开起OCM Service .

一旦新节点上的CM配置完成, 我们可以以root 身份开启Oracle Cluster Manager .

dell-node2$su root
Password:
dell-node2$id
uid=0(root)gid=0(root)groups=0(root),1(bin),2(daemon),3(sys),4(adm),6(disk),10(wheel)
dell-node2$
dell-node2$./ocmstart.sh
开启后退出root 权限 :
dell-node2$ exit
dell-node2$ id
uid=500(oracle) gid=500(dba) groups=500(dba),501(oper)

dell-node2$ps -ef | grep oracm
root 2209 1 0 May02 ? 00:00:00 oracm
root 2211 2209 0 May02 ? 00:00:21 oracm
root 2212 2211 0 May02 ? 00:10:48 oracm
root 2213 2211 0 May02 ? 00:00:00 oracm
root 2214 2211 0 May02 ? 00:03:37 oracm
root 2215 2211 0 May02 ? 00:01:34 oracm
root 2216 2211 0 May02 ? 00:00:00 oracm
root 2217 2211 0 May02 ? 00:00:01 oracm
root 2218 2211 0 May02 ? 00:00:00 oracm
root 2221 2211 0 May02 ? 00:00:00 oracm
root 2437 2211 0 May02 ? 00:00:00 oracm
root 2479 2211 0 May02 ? 00:00:01 oracm
root 2645 2211 0 May02 ? 00:00:03 oracm
root 2675 2211 0 May02 ? 00:12:25 oracm
root 2683 2211 0 May02 ? 00:00:00 oracm
root 2684 2211 0 May02 ? 00:00:00 oracm
root 2685 2211 0 May02 ? 00:00:00 oracm
root 2686 2211 0 May02 ? 00:00:00 oracm
root 2687 2211 0 May02 ? 00:00:00 oracm
oracle 608 30648 0 10:14 pts/1 00:00:00 grep oracm

查看Cluster Manager Logs .
在新的节点上成功开启Oracle Cluster Manager 之后, 我们可以在新的节点上查看OCM log file : $ORACLE_HOME/oracm/log/cm.log . Cluster Manager 开启之后, 添加新的节点到已经存在的节点的cluster-wide 重新配置将会在OCM log中出现下面一些信息 。


同样的,我们在所有已经存在的节点上查看OCM log文件 。 应该可以看到 3 个节点信息 。


来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/35489/viewspace-84337/,如需转载,请注明出处,否则将追究法律责任。

请登录后发表评论 登录
全部评论
Oracle , MySQL, SAP IQ, SAP HANA, PostgreSQL, Tableau 技术讨论,希望在这里一起分享知识,讨论技术,畅谈人生 。

注册时间:2007-12-10

  • 博文量
    5595
  • 访问量
    13384011