ITPub博客

首页 > 数据库 > Oracle > 11gRAC ASM Redhat6.5x64

11gRAC ASM Redhat6.5x64

原创 Oracle 作者:shihfa 时间:2016-01-22 23:19:10 0 删除 编辑
###RAC+DNS规划###
RHEL6u5 网络设置
export LANG=en
setup [图形界面]
地址规划hosts表
# Public Network - (eth0)
10.1.1.11    nw1-rac1.ht8357.ht3        nw1-rac1
10.1.1.12    nw1-rac2.ht8357.ht3        nw1-rac2
# Public Virtual IP (VIP) addresses - (eth0:1)
10.1.1.13    nw1-rac1-vip.ht8357.ht3    nw1-rac1-vip
10.1.1.14    nw1-rac2-vip.ht8357.ht3    nw1-rac2-vip
# Private Interconnect - (eth1)
192.168.1.1  nw1-rac1-priv.ht8357.ht3   nw1-rac1-priv
192.168.1.2  nw1-rac2-priv.ht8357.ht3   nw1-rac2-priv

dns解析scan
10.1.1.15    nw1-scan.ht8357.ht3
10.1.1.16    nw1-scan.ht8357.ht3
10.1.1.17    nw1-scan.ht8357.ht3

dns IP       10.1.1.3 
###配置linux dns ###
bind-9.3.6-4.P1.el5.i386.rpm  --提供核心的二进制程序
bind-chroot-9.3.6-4.P1.el5.i386.rpm  --提供安装性
caching-nameserver-9.3.6-4.P1.el5.i386.rpm --提供模板文件

[root@bjsasc etc]# cd /var/named/chroot/etc/
[root@bjsasc named]# cp -p named.caching-nameserver.conf  named.rfc1912.zones
[root@bjsasc etc]# ls -lrt
total 24
-rw-r----- 1 root named 1230 Jan 18  2010 named.caching-nameserver.conf
-rw-r--r-- 1 root root   405 Aug  3  2014 localtime
-rw-r----- 1 root named  113 Apr 12 11:11 rndc.key
-rw-r----- 1 root root  1230 Apr 12 15:39 named.conf.bak
-rw-r--r-- 1 root named 1200 Apr 12 16:02 named.conf
-rw-r----- 1 root named 1180 Apr 12 16:09 named.rfc1912.zones
[root@bjsasc etc]# more named.conf
//
// named.caching-nameserver.conf
//
// Provided by Red Hat caching-nameserver package to configure the
// ISC BIND named(8) DNS server as a caching only nameserver 
// (as a localhost DNS resolver only). 
//
// See /usr/share/doc/bind*/sample/ for example named configuration files.
//
// DO NOT EDIT THIS FILE - use system-config-bind or an editor
// to create named.conf - edits to this file will be lost on 
// caching-nameserver package upgrade.
//
options {
    listen-on port 53 { any; };
    listen-on-v6 port 53 { ::1; };
    directory     "/var/named";
    dump-file     "/var/named/data/cache_dump.db";
        statistics-file "/var/named/data/named_stats.txt";
        memstatistics-file "/var/named/data/named_mem_stats.txt";

    // Those options should be used carefully because they disable port
    // randomization
    // query-source    port 53;    
    // query-source-v6 port 53;

    allow-query     { any; };
    allow-query-cache { any; };
};
logging {
        channel default_debug {
                file "data/named.run";
                severity dynamic;
        };
};
view localhost_resolver {
    match-clients        { any; };
    match-destinations { any; };
    recursion yes;
    include "/etc/named.rfc1912.zones";
};
[root@bjsasc etc]# cat named.rfc1912.zones
// named.rfc1912.zones:
//
// Provided by Red Hat caching-nameserver package 
//
// ISC BIND named zone configuration for zones recommended by
// RFC 1912 section 4.1 : localhost TLDs and address zones
// 
// See /usr/share/doc/bind*/sample/ for example named configuration files.
//
zone "." IN {
    type hint;
    file "named.ca";
};

zone "localdomain" IN {
    type master;
    file "localdomain.zone";
    allow-update { none; };
};

zone "localhost" IN {
    type master;
    file "localhost.zone";
    allow-update { none; };
};

zone "0.0.127.in-addr.arpa" IN {
    type master;
    file "named.local";
    allow-update { none; };
};

zone "0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.ip6.arpa" IN {
        type master;
    file "named.ip6.local";
    allow-update { none; };
};

zone "255.in-addr.arpa" IN {
    type master;
    file "named.broadcast";
    allow-update { none; };
};

zone "0.in-addr.arpa" IN {
    type master;
    file "named.zero";
    allow-update { none; };
};
zone "ht8357.ht3" IN {
        type master;
        file "ht8357.zone";
        allow-update { none; };
};

zone "1.1.10.in-addr.arpa" IN {
        type master;
        file "named.ht8357";
        allow-update { none; };
};
[root@bjsasc etc]# cd ..
[root@bjsasc chroot]# ls
dev  etc  proc  var
[root@bjsasc chroot]# cd var/named/
[root@bjsasc named]#cp -p localhost.zone ht8357.zone
[root@bjsasc named]#cp -p named.local named.ht8357.ht3
[root@bjsasc named]# pwd
/var/named/chroot/var/named
[root@bjsasc named]# ls -rlt
total 44
drwxrwx--- 2 named named 4096 Jul 27  2004 slaves
-rw-r----- 1 root  named  427 Jan 18  2010 named.zero
-rw-r----- 1 root  named  426 Jan 18  2010 named.local
-rw-r----- 1 root  named  424 Jan 18  2010 named.ip6.local
-rw-r----- 1 root  named 1892 Jan 18  2010 named.ca
-rw-r----- 1 root  named  427 Jan 18  2010 named.broadcast
-rw-r----- 1 root  named  195 Jan 18  2010 localhost.zone
-rw-r----- 1 root  named  198 Jan 18  2010 localdomain.zone
drwxrwx--- 2 named named 4096 Apr 12 12:07 data
-rw-r----- 1 root  named  309 Apr 12 16:10 ht8357.zone
-rw-r----- 1 root  named  524 Apr 12 16:11 named.ht8357
[root@bjsasc named]# cat ht8357.zone 
$TTL    86400
@        IN SOA        @     root.oracle.com. (
                    42        ; serial (d. adams)
                    3H        ; refresh
                    15M        ; retry
                    1W        ; expiry
                    1D )        ; minimum

            IN NS          @ 
nw1-scan        IN A            10.1.1.15
nw1-scan        IN A            10.1.1.16
nw1-scan        IN A            10.1.1.17
[root@bjsasc named]# cat named.ht8357 
$TTL    86400
@       IN      SOA     @               root.oracle.com.  (
                                      1997022700 ; Serial
                                      28800      ; Refresh
                                      14400      ; Retry
                                      3600000    ; Expire
                                      86400 )    ; Minimum
        IN      NS      @ 
15      IN      PTR     nw1-scan.ht8357.ht3.
16      IN      PTR     nw1-scan.ht8357.ht3.
17      IN      PTR     nw1-scan.ht8357.ht3.
[root@bjsasc named]#/etc/init.d/named start
[root@bjsasc named]#chkconfig --level 35 named on

客户端设置dns解析
[root@nw1-rac1 ~]# cat /etc/resolv.conf 
# Generated by NetworkManager
#search ht8357.ht3
nameserver 10.1.1.3
[root@nw1-rac1 ~]#  cat /etc/resolv.conf 
# Generated by NetworkManager
#search ht8357.ht3
nameserver 10.1.1.3


##########RAC 环境##################
环境:
2台 IBM x3650
2台 B24 交换机
2台 IBM v3700     存储之间做镜像

2块盘raid1

系统分区
/boot/efi    200m        #有待研究
/boot        200m
vg_rac1    剩下的
 vg_rac1-lv_swap  swap等于内存大小
 vg_rac1-lv_root  /   所有可用空间


操作系统 rhel6.5  x64
数据库   oracle11.2.0.4 rac   x64

mii-tool eth3 更改网卡状态?
################################################################
hostname1     nw1-rac1.ht8357.ht3  
hostname2     nw1-rac2.ht8357.ht3  




2 个节点
关闭可能影响数据库安装的服务
NetworkManage selinux  iptables  

/etc/init.d/NetworkManager stop
chkconfig --level 12345 NetworkManager off

vim /etc/selinux/config
SELINUX=disabled  
setenforce 0

/etc/init.d/iptables   stop
chkconfig --level 12345 iptables off
################################
系统安装配置yum
[root@rac1 ~]# dd if=/dev/sr0 of=/rhel6u5.iso
[root@rac1 ~]# vi /etc/fstab 
/rhel6u5.iso            /mnt/rhel               iso9660 loop,ro         0 0
[root@rac1 ~]# mount -a
[root@rac1 ~]# df -lh
Filesystem                     Size  Used Avail Use% Mounted on
/dev/mapper/vg_rac1-lv_root  118G   16G   97G  14% /
tmpfs                           20G  323M   20G   2% /dev/shm
/dev/sda2                      194M   35M  150M  19% /boot
/dev/sda1                      200M  260K  200M   1% /boot/efi
/rhel6u5.iso                   3.6G  3.6G     0 100% /mnt/rhel
/dev/sr0                       3.6G  3.6G     0 100% /media/RHEL_6.5 x86_64 Disc 1
[root@rac1 ~]# cat /etc/yum.repos.d/yum.repo 
[base]
name=base
baseurl=file:///mnt/rhel
enabled=1
gpgcheck=0

[root@rac1 ~]#yum list
[root@rac1 ~]#yum clean all

安装数据库要求补丁包
[root@rac1 ~]# 
yum  -y install  gcc*
yum -y install gcc-4.4.7-4.el6.x86_64.rpm;
yum -y install gcc-c++-4.4.7-4.el6.x86_64.rpm; 
yum -y install libgomp-4.4.7-4.el6.x86_64.rpm ;
yum -y install elfutils-libelf-*;
yum -y install glibc-devel-2.12-1.132.el6.x86_64.rpm; 
yum -y install glibc-headers-2.12-1.132.el6.x86_64.rpm; 
yum -y install libaio-devel-0.3.107-10.el6.x86_64.rpm; 
yum -y install libstdc++-devel-4.4.7-4.el6.x86_64.rpm; 
yum -y install sysstat-9.0.4-22.el6.x86_64.rpm; 
yum -y install unixODBC-2.2.14-12.el6_3.x86_64.rpm; 
yum -y install unixODBC-devel-2.2.14-12.el6_3.x86_64.rpm; 
yum -y install compat-libstdc++-33-3.2.3-69.el6.x86_64.rpm ;
yum -y install compat-libcap1-1.10-1.x86_64.rpm ;
yum -y install readline-devel-6.0-4.el6.x86_64.rpm;  
yum -y install libXtst-*

#readline-devel for rlwap-0.37 

rpm -ivh pdksh-5.2.14-37.el5_8.1.x86_64.rpm   #rhel5.5 x64上的包
rpm -ivh cvuqdisk-1.0.9-1.rpm        #grid软件里有

安装rlwrap-0.37.tar 
tar zxvf rlwrap-0.37.tar.gz   
cd rlwrap-0.37
./configure && make && make install

########################################################################
配置参数文件 2个节点
[root@rac1 ~]# cat /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost6 localhost6.localdomain6
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
# Public Network - (eth0)
10.1.1.11    nw1-rac1.ht8357.ht3        nw1-rac1
10.1.1.12    nw1-rac2.ht8357.ht3        nw1-rac2
# Public Virtual IP (VIP) addresses - (eth0:1)
10.1.1.13    nw1-rac1-vip.ht8357.ht3    nw1-rac1-vip
10.1.1.14    nw1-rac2-vip.ht8357.ht3    nw1-rac2-vip
# Private Interconnect - (eth1)
192.168.1.1  nw1-rac1-priv.ht8357.ht3   nw1-rac1-priv
192.168.1.2  nw1-rac2-priv.ht8357.ht3   nw1-rac2-priv 

[root@rac1 ~]# vi /etc/sysctl.conf
fs.aio-max-nr = 1048576 
fs.file-max = 6815744 
kernel.shmall = 10485760    
kernel.shmmax = 19327352832                        
kernel.shmmni = 4096 
kernel.sem = 250 32000 100 128 
net.ipv4.ip_local_port_range = 9000 65500 
net.core.rmem_default=262144 
net.core.rmem_max=4194304 
net.core.wmem_default=262144 
net.core.wmem_max=1048586 

sysctl -p

[root@rac1 ~]# vi /etc/security/limits.conf
grid   soft    nproc    2047
grid   hard    nproc    16384
grid   soft    nofile     1024
grid   hard    nofile    65536
oracle   soft    nproc    2047
oracle   hard    nproc    16384
oracle   soft    nofile     1024
oracle   hard    nofile    65536

[root@rac1 ~]# vi /etc/pam.d/login
session   required    pam_limits.so

[root@rac1 ~]# vi /etc/profile
if [ $USER = "oracle" ] || [ $USER = "grid" ]; then 
  if [ $SHELL = "/bin/ksh" ]; then 
    ulimit -p 16384 
    ulimit -n 65536 
  else 
   ulimit -u 16384 -n 65536 
  fi 
  umask 022
fi 

####################################################################
建立grid、oracle用户建立相应目录,配置用户环境变量
[root@rac1 ~]# vi /root/adduser.sh 
#!/bin/bash
groupadd -g 1000 oinstall
groupadd -g 1200 dba
groupadd -g 1201 oper
groupadd -g 1100 asmadmin
groupadd -g 1300 asmdba
groupadd -g 1301 asmoper
useradd -u 1100 -g oinstall -G dba,asmadmin,asmdba,asmoper grid
useradd -u 1101 -g oinstall -G dba,oper,asmdba oracle
echo "grid" | passwd --stdin grid
echo "oracle" | passwd --stdin oracle
mkdir -p /u01/app/grid
mkdir -p /u01/app/11.2.0/grid
mkdir -p /u01/app/oracle/product/11.2.0/db_1
chown -R oracle:oinstall /u01
chown -R grid:oinstall /u01/app/grid
chown -R grid:oinstall /u01/app/11.2.0
chmod -R 775 /u01

[root@rac1 ~]# su - grid
[grid@rac1 ~]$ vi .bash_profile 

export ORACLE_SID=+ASM1[2]
export ORACLE_BASE=/u01/app/grid
export ORACLE_HOME=/u01/app/11.2.0/grid
export ORACLE_TERM=xterm
export TNS_ADMIN=$ORACLE_HOME/network/admin
export PATH=$ORACLE_HOME/bin:$PATH
export LD_LIBRARY_PATH=$ORACLE_HOME/lib:$LD_LIBRARY_PATH
export NLS_LANG=AMERICAN_AMERICA.ZHS16GBK
stty erase ^h
alias sqlplus='rlwrap sqlplus'
alias rman='rlwrap rman'
alias vi=='vim'

[oracle@rac1 ~]$ cat .bash_profile 
export ORACLE_SID=instance_name1[2]
export ORACLE_BASE=/u01/app/oracle
export ORACLE_HOME=$ORACLE_BASE/product/11.2.0/db_1            
export PATH=$ORACLE_HOME/bin:$PATH
export LD_LIBRARY_PATH=$ORACLE_HOME/lib:$LD_LIBRARY_PATH
export NLS_LANG=AMERICAN_AMERICA.ZHS16GBK
stty erase ^h
alias sqlplus='rlwrap sqlplus'
alias rman='rlwrap rman'
alias vi=='vim'
##########################################################################
grid建立信任关系
节点1/节点2
su - grid && mkdir .ssh && cd .ssh
ssh-keygen -t rsa
ssh-keygen -t dsa 
节点1
scp id_rsa.pub nw1-rac2.ht8357.ht3:~/.ssh/nw1-rac1.ht8357.ht3.rsa
scp id_dsa.pub nw1-rac2.ht8357.ht3:~/.ssh/nw1-rac1.ht8357.ht3.dsa
scp nw1-rac2.ht8357.ht3:~/.ssh/id_rsa.pub nw1-rac2.ht8357.ht3.rsa
scp nw1-rac2.ht8357.ht3:~/.ssh/id_dsa.pub nw1-rac2.ht8357.ht3.dsa
cat nw1-rac2.ht8357.ht3.rsa >> authorized_keys
cat nw1-rac2.ht8357.ht3.dsa >> authorized_keys
cat id_rsa.pub >> authorized_keys
cat id_dsa.pub >> authorized_keys
节点2
cat nw1-rac1.ht8357.ht3.rsa >> authorized_keys
cat nw1-rac1.ht8357.ht3.dsa >> authorized_keys 
cat id_rsa.pub >> authorized_keys 
cat id_dsa.pub >> authorized_keys

grid检查信任关系
节点1/2
ssh nw1-rac1.ht8357.ht3 date
ssh nw1-rac2.ht8357.ht3 date
ssh nw1-rac1 date
ssh nw1-rac2 date
ssh nw1-rac1-priv.ht8357.ht3 date
ssh nw1-rac2-priv.ht8357.ht3 date 
ssh nw1-rac1-priv date
ssh nw1-rac2-priv date

oracle用户信任关系建立和grid一样


gird用户安装之前的检查
./runcluvfy.sh stage -pre crsinst -n nw1-rac1.ht8357.ht3,nw1-rac2.ht8357.ht3 -fixup -verbose >check3.log

检验报错
mv /etc/ntp.conf /etc/ntp.conf_hpfbak
#############################################################################
########################实际环境 安装多路径软件##############################
查看wwn 存储端需要此wwn
yum install sysfsutils #安装systool 
systool -c fc_host -v  #wwn号
/sys/class/fc_host/host5/port_name
/sys/class/fc_host/host6/port_name

安装多路径软件
yum -y install device-mapper-multipath-libs.x86_64 
yum -y install device-mapper-multipath.x86_64

chkconfig multipathd on
/etc/init.d/multipathd start

/sbin/mpatchconf  --enable  #生成多路径配置文件
[oracle@rac1 ~]# ls /etc/multipath.conf
/etc/multipath.conf

#或者cp /usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf /etc/multipath.conf

multipath       进行路径聚合  (时间比较长,请耐心等待)
multipath -l  | grep dm-*  搜集生成唯一编号
multipath -F    删除现有配置
vim /etc/multipath.conf 进行别名绑定
################################################################################################
[oracle@rac1 ~]$ cat /etc/multipath.conf 
blacklist {        
 devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-13]*"     
 devnode "^hd[a-z]" 
 } 

## Use user friendly names, instead of using WWIDs as names. 貌似无用
#defaults {
#      polling_interval       30
#      failback               immediate
#      no_path_retry          queue
#      rr_min_io              100
#      path_checker           tur
#      user_friendly_names    yes
#          }
devices {
        device {
                        vendor          "IBM"
                        product                 "2145"
                        path_grouping_policy group_by_prio
                        getuid_callout "/lib/udev/scsi_id --whitelisted --device=/dev/%n"
                        features "1 queue_if_no_path"
                        prio alua
                        path_checker tur
                        failback immediate
                        no_path_retry "5"
                        rr_min_io 1
                        dev_loss_tmo 120
                }
}

multipaths {
                multipath {
                wwid                    360050763008083eb200000000000000b
                alias                   ocrvote1
        }
                multipath {
                wwid                    360050763008083eb200000000000000c
                alias                   ocrvote2
        }
                multipath {
                wwid                    360050763008083eb200000000000000d
                alias                   ocrvote3
        }
                multipath {
                wwid                    360050763008083eb200000000000000e
                alias                   onlog1
        }
                multipath {
                wwid                    360050763008083eb2000000000000010
                alias                   onlog2
        }
                multipath {
                wwid                    360050763008083eb200000000000000f
                alias                   onlog3
        }
                multipath {
                wwid                    360050763008083eb2000000000000011
                alias                   onlog4
        }
                multipath {
                wwid                    360050763008083eb200000000000001e
                alias                   asmdata1
        }
                multipath {
                wwid                    360050763008083eb200000000000001d
                alias                   asmdata2
        }
                multipath {
                wwid                    360050763008083eb200000000000001c
                alias                   asmdata3
        }
                multipath {
                wwid                    360050763008083eb200000000000001b
                alias                   asmdata4
        }
}
###############################################################################################
multipath       重新进行路径聚合  (时间比较长,请耐心等待)

编辑磁盘组属性
[oracle@rac1 ~]$ cat /etc/udev/rules.d/99-oracleasm.rules 
ENV{DM_NAME}=="ocrvote1", OWNER:="grid", GROUP:="asmadmin", MODE:="0660"
ENV{DM_NAME}=="ocrvote2", OWNER:="grid", GROUP:="asmadmin", MODE:="0660"
ENV{DM_NAME}=="ocrvote3", OWNER:="grid", GROUP:="asmadmin", MODE:="0660"
ENV{DM_NAME}=="onlog1",   OWNER:="grid", GROUP:="asmadmin", MODE:="0660"
ENV{DM_NAME}=="onlog2",   OWNER:="grid", GROUP:="asmadmin", MODE:="0660"
ENV{DM_NAME}=="onlog3",   OWNER:="grid", GROUP:="asmadmin", MODE:="0660"
ENV{DM_NAME}=="onlog4",   OWNER:="grid", GROUP:="asmadmin", MODE:="0660"
ENV{DM_NAME}=="asmdata1", OWNER:="grid", GROUP:="asmadmin", MODE:="0660"
ENV{DM_NAME}=="asmdata2", OWNER:="grid", GROUP:="asmadmin", MODE:="0660"
ENV{DM_NAME}=="asmdata3", OWNER:="grid", GROUP:="asmadmin", MODE:="0660"
ENV{DM_NAME}=="asmdata4", OWNER:="grid", GROUP:="asmadmin", MODE:="0660"

start_udev


多路径情况及asm识别存储情况
[oracle@rac1 ~]$ ls -l /dev/sd*
brw-rw---- 1 root disk  8,   0 Sep  3 22:52 /dev/sda
brw-rw---- 1 root disk  8,   1 Sep  3 22:52 /dev/sda1
brw-rw---- 1 root disk  8,   2 Sep  3 22:52 /dev/sda2
brw-rw---- 1 root disk  8,   3 Sep  3 22:52 /dev/sda3
brw-rw---- 1 root disk 65, 160 Sep  3 22:52 /dev/sdaa
brw-rw---- 1 root disk 65, 176 Sep  3 22:52 /dev/sdab
brw-rw---- 1 root disk 65, 192 Sep  3 22:52 /dev/sdac
brw-rw---- 1 root disk 65, 208 Sep  3 22:52 /dev/sdad
brw-rw---- 1 root disk 65, 224 Sep  3 22:52 /dev/sdae
brw-rw---- 1 root disk 65, 240 Sep  3 22:52 /dev/sdaf
brw-rw---- 1 root disk 66,   0 Sep  3 22:52 /dev/sdag
brw-rw---- 1 root disk 66,  16 Sep  3 22:52 /dev/sdah
brw-rw---- 1 root disk 66,  32 Sep  3 22:52 /dev/sdai
brw-rw---- 1 root disk 66,  48 Sep  3 22:52 /dev/sdaj
brw-rw---- 1 root disk 66,  64 Sep  3 22:52 /dev/sdak
brw-rw---- 1 root disk 66,  80 Sep  3 22:52 /dev/sdal
brw-rw---- 1 root disk 66,  96 Sep  3 22:52 /dev/sdam
brw-rw---- 1 root disk 66, 112 Sep  3 22:52 /dev/sdan
brw-rw---- 1 root disk 66, 128 Sep  3 22:52 /dev/sdao
brw-rw---- 1 root disk 66, 144 Sep  3 22:52 /dev/sdap
brw-rw---- 1 root disk 66, 160 Sep  3 22:52 /dev/sdaq
brw-rw---- 1 root disk 66, 176 Sep  3 22:52 /dev/sdar
brw-rw---- 1 root disk 66, 192 Sep  3 22:52 /dev/sdas
brw-rw---- 1 root disk 66, 208 Sep  3 22:52 /dev/sdat
brw-rw---- 1 root disk 66, 224 Sep  3 22:52 /dev/sdau
brw-rw---- 1 root disk 66, 240 Sep  3 22:52 /dev/sdav
brw-rw---- 1 root disk 67,   0 Sep  3 22:52 /dev/sdaw
brw-rw---- 1 root disk  8,  16 Sep  3 22:52 /dev/sdb
brw-rw---- 1 root disk  8,  32 Sep  3 22:52 /dev/sdc
brw-rw---- 1 root disk  8,  48 Sep  3 22:52 /dev/sdd
brw-rw---- 1 root disk  8,  64 Sep  3 22:52 /dev/sde
brw-rw---- 1 root disk  8,  80 Sep  3 22:52 /dev/sdf
brw-rw---- 1 root disk  8,  96 Sep  3 22:52 /dev/sdg
brw-rw---- 1 root disk  8, 112 Sep  3 22:52 /dev/sdh
brw-rw---- 1 root disk  8, 128 Sep  3 22:52 /dev/sdi
brw-rw---- 1 root disk  8, 144 Sep  3 22:52 /dev/sdj
brw-rw---- 1 root disk  8, 160 Sep  3 22:52 /dev/sdk
brw-rw---- 1 root disk  8, 176 Sep  3 22:52 /dev/sdl
brw-rw---- 1 root disk  8, 192 Sep  3 22:52 /dev/sdm
brw-rw---- 1 root disk  8, 208 Sep  3 22:52 /dev/sdn
brw-rw---- 1 root disk  8, 224 Sep  3 22:52 /dev/sdo
brw-rw---- 1 root disk  8, 240 Sep  3 22:52 /dev/sdp
brw-rw---- 1 root disk 65,   0 Sep  3 22:52 /dev/sdq
brw-rw---- 1 root disk 65,  16 Sep  3 22:52 /dev/sdr
brw-rw---- 1 root disk 65,  32 Sep  3 22:52 /dev/sds
brw-rw---- 1 root disk 65,  48 Sep  3 22:52 /dev/sdt
brw-rw---- 1 root disk 65,  64 Sep  3 22:52 /dev/sdu
brw-rw---- 1 root disk 65,  80 Sep  3 22:52 /dev/sdv
brw-rw---- 1 root disk 65,  96 Sep  3 22:52 /dev/sdw
brw-rw---- 1 root disk 65, 112 Sep  3 22:52 /dev/sdx
brw-rw---- 1 root disk 65, 128 Sep  3 22:52 /dev/sdy
brw-rw---- 1 root disk 65, 144 Sep  3 22:52 /dev/sdz
[oracle@rac1 ~]$ ls -l /dev/dm-*
brw-rw---- 1 root disk     253,  0 Sep  3 22:52 /dev/dm-0
brw-rw---- 1 root disk     253,  1 Sep  3 22:52 /dev/dm-1
brw-rw---- 1 grid asmadmin 253, 10 Sep  4 09:42 /dev/dm-10
brw-rw---- 1 grid asmadmin 253, 11 Sep  4 09:36 /dev/dm-11
brw-rw---- 1 root disk     253, 12 Sep  3 22:52 /dev/dm-12
brw-rw---- 1 grid asmadmin 253, 13 Sep  4 09:30 /dev/dm-13
brw-rw---- 1 grid asmadmin 253,  2 Sep  4 09:42 /dev/dm-2
brw-rw---- 1 grid asmadmin 253,  3 Sep  4 09:42 /dev/dm-3
brw-rw---- 1 grid asmadmin 253,  4 Sep  4 09:42 /dev/dm-4
brw-rw---- 1 grid asmadmin 253,  5 Sep  4 09:00 /dev/dm-5
brw-rw---- 1 grid asmadmin 253,  6 Sep  4 09:00 /dev/dm-6
brw-rw---- 1 grid asmadmin 253,  7 Sep  4 09:00 /dev/dm-7
brw-rw---- 1 grid asmadmin 253,  8 Sep  4 09:41 /dev/dm-8
brw-rw---- 1 grid asmadmin 253,  9 Sep  4 09:41 /dev/dm-9
[oracle@rac1 ~]$ ls -l /dev/mapper/*
lrwxrwxrwx 1 root root      8 Sep  4 09:00 /dev/mapper/asmdata1 -> ../dm-11
lrwxrwxrwx 1 root root      8 Sep  4 09:04 /dev/mapper/asmdata2 -> ../dm-10
lrwxrwxrwx 1 root root      7 Sep  4 09:04 /dev/mapper/asmdata3 -> ../dm-9
lrwxrwxrwx 1 root root      8 Sep  4 09:04 /dev/mapper/asmdata4 -> ../dm-13
crw-rw---- 1 root root 10, 58 Sep  3 22:52 /dev/mapper/control
lrwxrwxrwx 1 root root      8 Sep  3 22:52 /dev/mapper/mpathr -> ../dm-12
lrwxrwxrwx 1 root root      7 Sep  3 22:52 /dev/mapper/ocrvote1 -> ../dm-2
lrwxrwxrwx 1 root root      7 Sep  3 22:52 /dev/mapper/ocrvote2 -> ../dm-3
lrwxrwxrwx 1 root root      7 Sep  3 22:52 /dev/mapper/ocrvote3 -> ../dm-4
lrwxrwxrwx 1 root root      7 Sep  3 22:52 /dev/mapper/onlog1 -> ../dm-5
lrwxrwxrwx 1 root root      7 Sep  3 22:52 /dev/mapper/onlog2 -> ../dm-7
lrwxrwxrwx 1 root root      7 Sep  3 22:52 /dev/mapper/onlog3 -> ../dm-6
lrwxrwxrwx 1 root root      7 Sep  3 22:52 /dev/mapper/onlog4 -> ../dm-8
lrwxrwxrwx 1 root root      7 Sep  3 22:52 /dev/mapper/vg_rac1-lv_root -> ../dm-0
lrwxrwxrwx 1 root root      7 Sep  3 22:52 /dev/mapper/vg_rac1-lv_swap -> ../dm-1
[root@rac1 ~]# multipath -l | grep dm-*
mpathr (360050763008083eb2000000000000021) dm-12 IBM,2145
  |- 5:0:1:11 sdm  8:192  active undef running
asmdata4 (360050763008083eb200000000000001b) dm-13 IBM,2145
asmdata3 (360050763008083eb200000000000001c) dm-9 IBM,2145
asmdata2 (360050763008083eb200000000000001d) dm-10 IBM,2145
asmdata1 (360050763008083eb200000000000001e) dm-11 IBM,2145
onlog4 (360050763008083eb2000000000000011) dm-8 IBM,2145
onlog3 (360050763008083eb200000000000000f) dm-6 IBM,2145
onlog2 (360050763008083eb2000000000000010) dm-7 IBM,2145
onlog1 (360050763008083eb200000000000000e) dm-5 IBM,2145
ocrvote3 (360050763008083eb200000000000000d) dm-4 IBM,2145
ocrvote2 (360050763008083eb200000000000000c) dm-3 IBM,2145
ocrvote1 (360050763008083eb200000000000000b) dm-2 IBM,2145
[root@rac1 ~]# multipath -l 
mpathr (360050763008083eb2000000000000021) dm-12 IBM,2145
size=110G features='1 queue_if_no_path' hwhandler='0' wp=rw
|-+- policy='round-robin 0' prio=0 status=active
| |- 5:0:2:11 sdy  65:128 active undef running
| `- 6:0:3:11 sdaw 67:0   active undef running
`-+- policy='round-robin 0' prio=0 status=enabled
  |- 5:0:1:11 sdm  8:192  active undef running
  `- 6:0:2:11 sdak 66:64  active undef running
asmdata4 (360050763008083eb200000000000001b) dm-13 IBM,2145
size=100G features='1 queue_if_no_path' hwhandler='0' wp=rw
|-+- policy='round-robin 0' prio=0 status=active
| |- 5:0:1:7  sdi  8:128  active undef running
| `- 6:0:2:7  sdag 66:0   active undef running
`-+- policy='round-robin 0' prio=0 status=enabled
  |- 5:0:2:7  sdu  65:64  active undef running
  `- 6:0:3:7  sdas 66:192 active undef running
asmdata3 (360050763008083eb200000000000001c) dm-9 IBM,2145
size=100G features='1 queue_if_no_path' hwhandler='0' wp=rw
|-+- policy='round-robin 0' prio=0 status=active
| |- 5:0:2:8  sdv  65:80  active undef running
| `- 6:0:3:8  sdat 66:208 active undef running
`-+- policy='round-robin 0' prio=0 status=enabled
  |- 5:0:1:8  sdj  8:144  active undef running
  `- 6:0:2:8  sdah 66:16  active undef running
asmdata2 (360050763008083eb200000000000001d) dm-10 IBM,2145
size=100G features='1 queue_if_no_path' hwhandler='0' wp=rw
|-+- policy='round-robin 0' prio=0 status=active
| |- 5:0:1:9  sdk  8:160  active undef running
| `- 6:0:2:9  sdai 66:32  active undef running
`-+- policy='round-robin 0' prio=0 status=enabled
  |- 5:0:2:9  sdw  65:96  active undef running
  `- 6:0:3:9  sdau 66:224 active undef running
asmdata1 (360050763008083eb200000000000001e) dm-11 IBM,2145
size=100G features='1 queue_if_no_path' hwhandler='0' wp=rw
|-+- policy='round-robin 0' prio=0 status=active
| |- 5:0:2:10 sdx  65:112 active undef running
| `- 6:0:3:10 sdav 66:240 active undef running
`-+- policy='round-robin 0' prio=0 status=enabled
  |- 5:0:1:10 sdl  8:176  active undef running
  `- 6:0:2:10 sdaj 66:48  active undef running
onlog4 (360050763008083eb2000000000000011) dm-8 IBM,2145
size=2.0G features='1 queue_if_no_path' hwhandler='0' wp=rw
|-+- policy='round-robin 0' prio=0 status=active
| |- 5:0:1:6  sdh  8:112  active undef running
| `- 6:0:2:6  sdaf 65:240 active undef running
`-+- policy='round-robin 0' prio=0 status=enabled
  |- 5:0:2:6  sdt  65:48  active undef running
  `- 6:0:3:6  sdar 66:176 active undef running
onlog3 (360050763008083eb200000000000000f) dm-6 IBM,2145
size=2.0G features='1 queue_if_no_path' hwhandler='0' wp=rw
|-+- policy='round-robin 0' prio=0 status=active
| |- 5:0:1:4  sdf  8:80   active undef running
| `- 6:0:2:4  sdad 65:208 active undef running
`-+- policy='round-robin 0' prio=0 status=enabled
  |- 5:0:2:4  sdr  65:16  active undef running
  `- 6:0:3:4  sdap 66:144 active undef running
onlog2 (360050763008083eb2000000000000010) dm-7 IBM,2145
size=2.0G features='1 queue_if_no_path' hwhandler='0' wp=rw
|-+- policy='round-robin 0' prio=0 status=active
| |- 5:0:2:5  sds  65:32  active undef running
| `- 6:0:3:5  sdaq 66:160 active undef running
`-+- policy='round-robin 0' prio=0 status=enabled
  |- 5:0:1:5  sdg  8:96   active undef running
  `- 6:0:2:5  sdae 65:224 active undef running
onlog1 (360050763008083eb200000000000000e) dm-5 IBM,2145
size=2.0G features='1 queue_if_no_path' hwhandler='0' wp=rw
|-+- policy='round-robin 0' prio=0 status=active
| |- 5:0:2:3  sdq  65:0   active undef running
| `- 6:0:3:3  sdao 66:128 active undef running
`-+- policy='round-robin 0' prio=0 status=enabled
  |- 5:0:1:3  sde  8:64   active undef running
  `- 6:0:2:3  sdac 65:192 active undef running
ocrvote3 (360050763008083eb200000000000000d) dm-4 IBM,2145
size=1.0G features='1 queue_if_no_path' hwhandler='0' wp=rw
|-+- policy='round-robin 0' prio=0 status=active
| |- 5:0:1:2  sdd  8:48   active undef running
| `- 6:0:2:2  sdab 65:176 active undef running
`-+- policy='round-robin 0' prio=0 status=enabled
  |- 5:0:2:2  sdp  8:240  active undef running
  `- 6:0:3:2  sdan 66:112 active undef running
ocrvote2 (360050763008083eb200000000000000c) dm-3 IBM,2145
size=1.0G features='1 queue_if_no_path' hwhandler='0' wp=rw
|-+- policy='round-robin 0' prio=0 status=active
| |- 5:0:2:1  sdo  8:224  active undef running
| `- 6:0:3:1  sdam 66:96  active undef running
`-+- policy='round-robin 0' prio=0 status=enabled
  |- 5:0:1:1  sdc  8:32   active undef running
  `- 6:0:2:1  sdaa 65:160 active undef running
ocrvote1 (360050763008083eb200000000000000b) dm-2 IBM,2145
size=1.0G features='1 queue_if_no_path' hwhandler='0' wp=rw
|-+- policy='round-robin 0' prio=0 status=active
| |- 5:0:1:0  sdb  8:16   active undef running
| `- 6:0:2:0  sdz  65:144 active undef running    
`-+- policy='round-robin 0' prio=0 status=enabled
  |- 5:0:2:0  sdn  8:208  active undef running
  `- 6:0:3:0  sdal 66:80  active undef running
####################################################################################
##################测试环境   单路径   使用udev######################################
编辑RAC1.vmx  和rac2.vmx 文件  若是添加磁盘为scsi1:1,scsi1:2则
disk.locking = "false"
diskLib.dataCacheMaxSize = "0"
scsi1.sharedBus = "virtual"

scsi1:1.fileName = "C:\Users\shihfa\Documents\Virtual Machines\asmdisk\disk1.vmdk"  #原有
scsi1:1.mode = "independent-persistent"                                             #原有
scsi1:1.deviceType = "disk"
scsi1.1.sharedBus='virtual'
scsi1.1.shared='true'

scsi1:2.fileName = "C:\Users\shihfa\Documents\Virtual Machines\asmdisk\disk2.vmdk"  #原有
scsi1:2.mode = "independent-persistent"                                             #原有
scsi1:2.deviceType = "disk"
scsi1.2.sharedBus='virtual'
scsi1.2.shared='true'

for i in b c  ;
do
echo "KERNEL==\"sd*\", BUS==\"scsi\", PROGRAM==\"/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/\$name\", RESULT==\"`/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/sd$i`\", NAME=\"asm-disk$i\", OWNER=\"grid\", GROUP=\"asmadmin\", MODE=\"0660\""      >> /etc/udev/rules.d/99-oracle-asmdevices.rules
done

2次启动start_udev
####################################################
#安装过程中出现问题处理#############################

以下是安装grid记录,注意的是第二个节点执行root.sh 提示
CRS-4402: The CSS daemon was started in exclusive mode but found an active CSS daemon on node rac1, number 1, and is terminating
An active cluster was found during exclusive startup, restarting to join the cluster
此时需要等待一段时间就可以了
situation 1:
[root@rac1 ~]# /u01/app/11.2.0/grid/root.sh 
Performing root user operation for Oracle 11g 

The following environment variables are set as:
    ORACLE_OWNER= grid
    ORACLE_HOME=  /u01/app/11.2.0/grid

Enter the full pathname of the local bin directory: [/usr/local/bin]: 
The contents of "dbhome" have not changed. No need to overwrite.
The contents of "oraenv" have not changed. No need to overwrite.
The contents of "coraenv" have not changed. No need to overwrite.

Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params
Creating trace directory
User ignored Prerequisites during installation
Installing Trace File Analyzer
OLR initialization - successful
  root wallet
  root wallet cert
  root cert export
  peer wallet
  profile reader wallet
  pa wallet
  peer wallet keys
  pa wallet keys
  peer cert request
  pa cert request
  peer cert
  pa cert
  peer root cert TP
  profile reader root cert TP
  pa root cert TP
  peer pa cert TP
  pa peer cert TP
  profile reader pa cert TP
  profile reader peer cert TP
  peer user cert
  pa user cert
Adding Clusterware entries to upstart
CRS-2672: Attempting to start 'ora.mdnsd' on 'rac1'
CRS-2676: Start of 'ora.mdnsd' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.gpnpd' on 'rac1'
CRS-2676: Start of 'ora.gpnpd' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.cssdmonitor' on 'rac1'
CRS-2672: Attempting to start 'ora.gipcd' on 'rac1'
CRS-2676: Start of 'ora.cssdmonitor' on 'rac1' succeeded
CRS-2676: Start of 'ora.gipcd' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.cssd' on 'rac1'
CRS-2672: Attempting to start 'ora.diskmon' on 'rac1'
CRS-2676: Start of 'ora.diskmon' on 'rac1' succeeded
CRS-2676: Start of 'ora.cssd' on 'rac1' succeeded

ASM created and started successfully.

Disk Group ocr created successfully.

clscfg: -install mode specified
Successfully accumulated necessary OCR keys.
Creating OCR keys for user 'root', privgrp 'root'..
Operation successful.
CRS-4256: Updating the profile
Successful addition of voting disk 2d81674b49804ff5bfdaeaff2a0a73ab.
Successfully replaced voting disk group with +ocr.
CRS-4256: Updating the profile
CRS-4266: Voting file(s) successfully replaced
##  STATE    File Universal Id                File Name Disk group
--  -----    -----------------                --------- ---------
 1. ONLINE   2d81674b49804ff5bfdaeaff2a0a73ab (/dev/asm-diskb) [OCR]
Located 1 voting disk(s).
CRS-2672: Attempting to start 'ora.asm' on 'rac1'
CRS-2676: Start of 'ora.asm' on 'rac1' succeeded
CRS-2672: Attempting to start 'ora.OCR.dg' on 'rac1'
CRS-2676: Start of 'ora.OCR.dg' on 'rac1' succeeded
Configure Oracle Grid Infrastructure for a Cluster ... succeeded
[root@rac1 ~]# 



[grid@rac2 ~]$ /u01/app/11.2.0/grid/root.sh 
You must be logged in as user with UID as zero (e.g. root user) to run root configuration script.
Log in as user with UID as zero (e.g. root user) and restart root configuration script execution.
[grid@rac2 ~]$ exit
logout
[root@rac2 ~]# /u01/app/11.2.0/grid/root.sh 
Performing root user operation for Oracle 11g 

The following environment variables are set as:
    ORACLE_OWNER= grid
    ORACLE_HOME=  /u01/app/11.2.0/grid

Enter the full pathname of the local bin directory: [/usr/local/bin]: 
The contents of "dbhome" have not changed. No need to overwrite.
The contents of "oraenv" have not changed. No need to overwrite.
The contents of "coraenv" have not changed. No need to overwrite.

Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params
Creating trace directory
User ignored Prerequisites during installation
Installing Trace File Analyzer
OLR initialization - successful
Adding Clusterware entries to upstart

Configure Oracle Grid Infrastructure for a Cluster ... succeeded
[root@rac2 ~]# 

或者
[root@TestMach2 /u01/app/11.2.0]#/u01/app/oraInventory/orainstRoot.sh
Changing permissions of /u01/app/oraInventory.
Adding read,write permissions for group.
Removing read,write,execute permissions for world.

Changing groupname of /u01/app/oraInventory to oinstall.
The execution of the script is complete.
[root@TestMach2 /u01/app/11.2.0]#/u01/app/11.2.0/grid_1/root.sh
Performing root user operation for Oracle 11g 

The following environment variables are set as:
    ORACLE_OWNER= grid
    ORACLE_HOME=  /u01/app/11.2.0/grid_1

Enter the full pathname of the local bin directory: [/usr/local/bin]: 
   Copying dbhome to /usr/local/bin ...
   Copying oraenv to /usr/local/bin ...
   Copying coraenv to /usr/local/bin ...


Creating /etc/oratab file...
Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Using configuration parameter file: /u01/app/11.2.0/grid_1/crs/install/crsconfig_params
Creating trace directory
User ignored Prerequisites during installation
Installing Trace File Analyzer
User grid has the required capabilities to run CSSD in realtime mode
OLR initialization - successful
Adding Clusterware entries to inittab
CRS-4402: The CSS daemon was started in exclusive mode but found an active CSS daemon on node testmach1, number 1, and is terminating
An active cluster was found during exclusive startup, restarting to join the cluster
Configure Oracle Grid Infrastructure for a Cluster ... succeeded
[root@TestMach2 /u01/app/11.2.0]#su - grid
grid:testmach2:/home/grid:>.
######################################################################
situation 2:
grid安装报错解决
Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params
Creating trace directory
User ignored Prerequisites during installation
Installing Trace File Analyzer
Failed to create keys in the OLR, rc = 127, Message:
  /u01/app/11.2.0/grid/bin/clscfg.bin: error while loading shared libraries: libcap.so.1: cannot open shared object file: No such file or directory 

Failed to create keys in the OLR at /u01/app/11.2.0/grid/crs/install/crsconfig_lib.pm line 7660.
/u01/app/11.2.0/grid/perl/bin/perl -I/u01/app/11.2.0/grid/perl/lib -I/u01/app/11.2.0/grid/crs/install /u01/app/11.2.0/grid/crs/install/rootcrs.pl execution fail


/u01/app/11.2.0/grid/crs/install/rootcrs.pl -verbose -deconfig -force    
/u01/app/11.2.0/grid/crs/install/rootcrs.pl          -deconfig -force
#####################################################################
situation 3: 重新配置grid
2个节点
rm -rf /u01/* 
rm /etc/oracle/ocr.loc
dd if=/dev/zero of=/dev/mappper/votedisk1
sh /root/adduser.sh

su - grid
xhost +
######################################################################
situation 4: 此时用asmca创建data 及fra 磁盘组 第二个节点不会挂载
su - grid 
sqlplus / as sysasm 
sql>alter diskgroup data mount;
#####################################################################
situation 5:
ora.shihfa.db
      1        ONLINE  OFFLINE                               Instance Shutdown   
      2        ONLINE  OFFLINE                                                   
[root@nw1-rac1 ~]# su - oracle
[oracle@nw1-rac1 ~]$ sqlplus / as sysdba
SQL*Plus: Release 11.2.0.4.0 Production on Sun Apr 12 14:57:12 2015
Copyright (c) 1982, 2013, Oracle.  All rights reserved.
Connected to an idle instance.
SQL> startup
ORA-00119: invalid specification for system parameter REMOTE_LISTENER
ORA-00132: syntax error or unresolved network name 'nw1-scan.ht8357.ht3:1521'
SQL> 

数据库使用了dns  所以要保证dns开启的
######################################################################
集群创建之后后续操作
更改sys/oracle 密码策略  
select * from dba_profiles ;alter profile default limit PASSWORD_LIFE_TIME unlimited;
更改root 密码口令复杂度 AFk3zvN1 
禁止oracle/grid用户远程ssh  ??
保证每个实例有4组日志,没组日志有2个成员 大小为100m
#######################################################

    GROUP# STATUS  TYPE    MEMBER                          IS_
---------- ------- ------- -------------------------------------------------- ---
     1       ONLINE  +DATA/shihfa/onlinelog/group_1.266.876786513       NO
     1       ONLINE  +FRA/shihfa/onlinelog/group_1.260.876786515          YES
     2       ONLINE  +DATA/shihfa/onlinelog/group_2.267.876786517       NO
     2       ONLINE  +FRA/shihfa/onlinelog/group_2.261.876786519          YES
     3       ONLINE  +DATA/shihfa/onlinelog/group_3.274.876790939       NO
     3       ONLINE  +FRA/shihfa/onlinelog/group_3.262.876790945          YES
     4       ONLINE  +DATA/shihfa/onlinelog/group_4.275.876790947       NO
     4       ONLINE  +FRA/shihfa/onlinelog/group_4.263.876790949          YES

8 rows selected.

SQL> select * from v$log;

    GROUP#    THREAD#  SEQUENCE#      BYTES  BLOCKSIZE      MEMBERS ARC STATUS           FIRST_CHANGE# FIRST_TIM NEXT_CHANGE# NEXT_TIME
---------- ---------- ---------- ---------- ---------- ---------- --- ---------------- ------------- --------- ------------ ---------
     1        1          79   52428800       512        2 NO  CURRENT              924821 14-APR-15     2.8147E+14
     2        1          78   52428800       512        2 YES INACTIVE              901658 12-APR-15         924821 14-APR-15
     3        2           5   52428800       512        2 YES INACTIVE              875571 12-APR-15         875576 12-APR-15
     4        2           4   52428800       512        2 YES INACTIVE              875569 12-APR-15         875571 12-APR-15

SQL> alter database add logfile thread 1 group 5 ;

Database altered.

SQL> alter database add logfile thread 1 group 6 ;

Database altered.

SQL> alter database add logfile thread 2 group 7 ;

Database altered.

SQL> alter database add logfile thread 2 group 8 ;

Database altered.

SQL> select * from v$log;

    GROUP#    THREAD#  SEQUENCE#      BYTES  BLOCKSIZE      MEMBERS ARC STATUS           FIRST_CHANGE# FIRST_TIM NEXT_CHANGE# NEXT_TIME
---------- ---------- ---------- ---------- ---------- ---------- --- ---------------- ------------- --------- ------------ ---------
     1        1          79   52428800       512        2 NO  CURRENT              924821 14-APR-15     2.8147E+14
     2        1          78   52428800       512        2 YES INACTIVE              901658 12-APR-15         924821 14-APR-15
     3        2           5   52428800       512        2 YES INACTIVE              875571 12-APR-15         875576 12-APR-15
     4        2           4   52428800       512        2 YES INACTIVE              875569 12-APR-15         875571 12-APR-15
     5        1           0  104857600       512        2 YES UNUSED               0              0
     6        1           0  104857600       512        2 YES UNUSED               0              0
     7        2           0  104857600       512        2 YES UNUSED               0              0
     8        2           0  104857600       512        2 YES UNUSED               0              0

8 rows selected.

SQL> select member from v$logfile;

MEMBER
--------------------------------------------------
+DATA/shihfa/onlinelog/group_1.266.876786513
+FRA/shihfa/onlinelog/group_1.260.876786515
+DATA/shihfa/onlinelog/group_2.267.876786517
+FRA/shihfa/onlinelog/group_2.261.876786519
+DATA/shihfa/onlinelog/group_3.274.876790939
+FRA/shihfa/onlinelog/group_3.262.876790945
+DATA/shihfa/onlinelog/group_4.275.876790947
+FRA/shihfa/onlinelog/group_4.263.876790949
+DATA/shihfa/onlinelog/group_5.277.877002517
+FRA/shihfa/onlinelog/group_5.274.877002643
+DATA/shihfa/onlinelog/group_6.278.877002677

MEMBER
--------------------------------------------------
+FRA/shihfa/onlinelog/group_6.275.877002687
+DATA/shihfa/onlinelog/group_7.279.877002707
+FRA/shihfa/onlinelog/group_7.276.877002721
+DATA/shihfa/onlinelog/group_8.280.877002743
+FRA/shihfa/onlinelog/group_8.277.877002751

16 rows selected.

原有50m日志需要YES INACTIVE 删除/添加
SQL> alter database drop logfile group 2;

Database altered.

SQL> alter database add logfile thread 1 group 2;
Database altered.
#####################################################################

设置数据库备份策略rman/expdp
##############################################

man  5  crontab 
su - oracle
create directory expdp as '/expdp';
grant read,write on directory expdp to public;

clear.sh
#!/bin/bash
find /expdp -name "*.log" -mtime +7 -exec rm {} \;

expdp_alms1_full.sh
#!/bin/bash
export ORACLE_SID=shihf1
export ORACLE_BASE=/u01/app/oracle
export ORACLE_HOME=$ORACLE_BASE/product/10.2.0/db_1
export PATH=$ORACLE_HOME/bin:$ORACLE_HOME/jdk/bin:$PATH
SID=shihfa
FILE=`date +%Y%m%d`
expdp system/xxxx directory=expdp full=y dumpfile=$SID-$FILE.dmp  logfile=$SID-$FILE.log
#################################################
#########################
export ORACLE_SID=shihf1
export ORACLE_BASE=/u01/app/oracle
export ORACLE_HOME=$ORACLE_BASE/product/10.2.0/db_1
export PATH=$ORACLE_HOME/bin:$ORACLE_HOME/jdk/bin:$PATH
$ORACLE_HOME/bin/rman target/ cmdfile=/xx/[1-7].sh  log=/xx/[1-7].log

7#####################
show all;
configure retention policy to recovery window of 7 days;
configure device type disk parallelism 1 backup type to compressed backupset;

#7
run
{
backup incremental level=0 database format '/xx/inc0_%U'  plus archivelog format '/xx/arch_%U'delete input;
crosscheck backupset;
delete noprompt obsolete;
delete noprompt expired backupset;
}

#1-6
run{backup incremental level=2 database format '/xx/inc2_%U' ;}
run{backup incremental level=2 database format '/xx/inc2_%U' ;}
run{backup incremental level=1 database format '/xx/inc1_%U' ;}
run{backup incremental level=2 database format '/xx/inc2_%U' ;}
run{backup incremental level=2 database format '/xx/inc2_%U' ;}
run{backup incremental level=2 database format '/xx/inc2_%U' ;}


测试环境
SQL> select group_number,name,total_mb,free_mb from v$asm_diskgroup;

GROUP_NUMBER NAME                  TOTAL_MB      FREE_MB
------------ ------------------------------ ---------- ----------
       1 DATA                 20480        15280
       2 FRA                 20480        19412
       3 OCR                  1024          628

生产环境
GROUP_NUMBER NAME                           STATE                             TYPE                  USED_MB   TOTAL_MB
------------ ------------------------------ --------------------------------- ------------------ ---------- ----------
           1 ARCH                           MOUNTED                           EXTERN                 117581     327680
           2 DATA                           MOUNTED                           EXTERN                 736581     737280
           3 OCRBAK                         MOUNTED                           NORMAL                    926      30720

所以前期环境设计的时候ocr+vote 设置要大一些(单个ocr 3个G) 



##############
hosts 表 和主机名要小写   20151104 血的教训
11G RAC 的信任关系也不需要手工配置了 图形界面可以自动配置





来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/26179376/viewspace-1981018/,如需转载,请注明出处,否则将追究法律责任。

下一篇: Suse11 Oracle11g
请登录后发表评论 登录
全部评论

注册时间:2013-11-05

  • 博文量
    62
  • 访问量
    55226