当前位置:Gxlcms > mysql > OracleRAC(11.2.0.4版本)ForAIX6.1安装手册

OracleRAC(11.2.0.4版本)ForAIX6.1安装手册

时间:2021-07-01 10:21:17 帮助过:44人阅读

【部分引用别人的文档修改而成,实际经过安装验证的文档】 Oracle Rac 11GR2(11.2.0.4) For AIX6.1ASM安装手册 部分截图采用了网上别人的图片以及部分章节 2 安装环境说明 节点 节点名称 实例名称 数据库名称 处理器 RAM 操作系统 Rac1 rac1 Rac 4颗cpu*8

【部分引用别人的文档修改而成,实际经过安装验证的文档】

Oracle Rac 11GR2(11.2.0.4)

For AIX6.1+ASM安装手册


部分截图采用了网上别人的图片以及部分章节

2 安装环境说明

节点

节点名称

实例名称

数据库名称

处理器

RAM

操作系统

Rac1

rac1

Rac

4颗cpu*8核*4228Mhz

32GB

AIX6.1

Rac2

rac2

4颗cpu*8核*4228Mhz

32GB

AIX6.1

网络配置

节点名称

公共 IP 地址

专用 IP 地址

虚拟 IP 地址

SCAN 名称

SCAN IP 地址

Rac1

172.1.1.204

192.168.0.204

172.1.1.206

Scan-ip

172.1.1.208

Rac2

172.1.1.205

192.168.0.205

172.1.1.207

Oracle 软件组件

软件组件

操作系统用户

主组

辅助组

主目录

Oracle 基目录/Oracle 主目录

Grid Infra

grid

oinstall

asmadmin、asmdba、asmoper、oinstall

/home/grid

/u01/app/grid

/u01/app/11.2/grid

Oracle RAC

oracle

oinstall

dba、oper、asmdba、oinstall

/home/oracle

/u01/app /oracle

/u01/app/oracle/product/11.2.0/db_1

存储组件

存储组件

文件系统

卷大小

ASM 卷组名

ASM 冗余

设备名

OCR/VOTING

ASM

50G

CRSDG

normal

/dev/rhdisk4-6

数据

ASM

600G

DATA

normal

/dev/rhdisk7-9

恢复区

ASM

100G

FRA_ARCHIVE

Normal

/dev/rhdisk10-12






























在Oracle RAC架构中共有四种IP,分别是Public IP,Private IP,VIP,SCAN IP。它们的作用如下:

Private IP:私有IP用于节点间同步心跳,这个对于用户层面,可以直接忽略,简单理解,这个IP是用来保证两台服务器同步数据用的。

Public IP:公有IP一般用于管理员使用,用来确保可以操作到正确的机器,也叫真实IP。

VIP:虚拟IP用于客户端应用,一般情况下VIP是飘在配置Public IP地址的网卡上的。VIP支持失效转移,通俗说就是配置该VIP的节点宕机了,另一个主机节点会自动接管该VIP,而客户端没有任何感觉。这也是为什么要使用RAC的原因之一,另一个原因,我认为是负载均衡。客户端在配置tnsnames.ora时,有些场合是要使用的vip,而有些场合又必须使用Public IP。例如,当你在定位一个数据库的死锁时,使用Public IP,可以确保连到你想处理的机器。相反此时使用VIP时,会出现不确定性,因为服务器默认是开启负载均衡的,也就是有可能你想连A机,系统却给你分配了B机。


SCAN IP:在Oracle 11gR2以前,如果数据库采用了RAC架构,在客户端的tnsnames中,需要配置多个节点的连接信息,从而实现诸如负载均衡,failover等等RAC的特性。因此,当数据库RAC集群需要添加或删除节点时,需要及时对客户端机器的tns进行更新,以免出现安全隐患。在11gR2中,为了简化该项配置工作,引入了SCAN(Single ClientAccess Name)的特性,该特性的好处在于,在数据库与客户端之间,添加了一层虚拟的服务层,就是所谓的SCAN IP以及SCAN IP Listener,在客户端仅需要配置SCAN IP的TNS信息,通过SCAN IPListener,连接后台集群数据库。这样,不论集群数据库是否有添加或者删除节点的操作,均不会对client产生影响。


两个RAC节点主机的规划:

网关:10.1.0.254

主机名称

主机别名

类型

IP地址

解析方式

rac1

rac1

Public

172.1.1.204/255.255.255.0

host

rac1-vip

rac1-vip

Virtual

172.1.1.206/255.255.255.0

host

rac1-priv

rac1-priv

Private

192.168.0.204/255.255.255.0

host

rac2

rac2

Public

172.1.1.205/255.255.255.0

host

rac2-vip

rac2-vip

Virtual

172.1.1.207/255.255.255.0

host

rac2-priv

rac2-priv

Private

192.168.0.205/255.255.255.0

host

Scan-ip

Scan-ip

Virtual

172.1.1.208/255.255.255.0

host

2.4 存储盘规划

存储盘名称

大小

用途

hdisk 4

50GB

CRSDG

hdisk 5

51GB

hdisk 6

52GB

hdisk 7

600GB

DATA

hdisk 8

601GB

hdisk 9

602GB

hdisk10

100GB

FRA_ARCHIVE

hdisk11

101GB

hdisk12

102GB

2.5 数据库安全信息

项目名称

用户名

口令或实例

操作系统用户

root

数据库网格安装用户

Grid

数据库安装用户

oracle

集群实例名

rac

ASM管理

Sys

数据库管理

sys/system

审计用户

rac_vault

2.6 安装目录规划

安装目录规划原则:建立/u01文件系统用来安装grid、datbase程序。程序都安装在/u01/app下面,对于grid与database分别建立不同的目录,分配不同的权限。其中grid的ORACLE_BASE和ORACLE_HOME建议安装在不同的目录下,具体规划如下:

新建70G lv:oralv

新建文件系统,挂载点:/u01

grid base目录:/u01/app/grid #grid用户的ORACLE_BASE

grid asm安装目录:/u01/app/11.2/grid #grid用户的ORACLE_HOME,也即是安装时的software location

Oracle base目录:/u01/app/oracle #oracle用户的ORACLE_BASE

注:此规划为后来总结,本次安装中与此略有出入。Grid用户的ORACLE_BASE、ORACLE_HOME都需要手工创建。Oracle用户只创建ORACLE_BASE目录即可。

3 预安装任务列表的检查配置

说明:下面所列检查配置任务,默认需要在所有RAC节点执行,有很少的操作步骤只需在一个节点执行即可,这些步骤会一一说明,在检查配置时应该注意。

3.1 检查主机硬件配置

主机硬件检查包括:可用内存,页面交换空间、可用硬盘空间、/tmp目录可用空间。

1. 使用如下命令查看主机的内存和交换空间,内存至少2.5G,交换空间应为物理可用内存的2倍。

# /usr/sbin/lsattr -HE -l sys0 -a realmem

attribute value description user_settable

realmem 32243712 Amount of usable physical memory in Kbytes False

#/usr/sbin/lsps -a

2. 检查硬件架构:#/usr/bin/getconf HARDWARE_BITMODE,要求64位硬件架构。

3. 检查集群软件和数据库软件安装目录至少有6.5GB可用空间,/tmp目录至少有1GB可用空间:#df -h。

4.查看主机信息

#prtconf

System Model: IBM,8231-E1D

Machine SerialNumber:

Processor Type:PowerPC_POWER7

ProcessorImplementation Mode: POWER 7

Processor Version:PV_7_Compat

Number OfProcessors: 8

Processor ClockSpeed: 4228 MHz

CPU Type: 64-bit

Kernel Type: 64-bit

LPAR Info: 106-E80AT

Memory Size: 31488MB

Good Memory Size:31488 MB

Platform Firmwarelevel: AL770_052

Firmware Version:IBM,AL770_052

Console Login:enable

Auto Restart: true

Full Core: false

Network Information

Host Name: rac1

IP Address: 172.1.1.204

Sub Netmask: 255.255.255.0

Gateway: 10.1.0.254

Name Server:

Domain Name:

Paging SpaceInformation

Total Paging Space: 9216MB

Percent Used: 1%

Volume GroupsInformation

==============================================================================

Active VGs

==============================================================================

rootvg:

PV_NAME PV STATE TOTAL PPs FREE PPs FREE DISTRIBUTION

hdisk0 active 558 304 111..80..00..01..112

hdisk1 active 558 450 111..86..30..111..112

INSTALLED RESOURCELIST

The followingresources are installed on the machine.

+/- = Added ordeleted from Resource List.

* = Diagnostic support not available.

Model Architecture: chrp

Model Implementation: Multiple Processor, PCIbus

+ sys0 System Object

+ sysplanar0 SystemPlanar

* vio0 Virtual I/O Bus

* vsa1 U78AB.001.WZSKA2R-P1-T2 LPARVirtual Serial Adapter

* vty1 U78AB.001.WZSKA2R-P1-T2-L0 AsynchronousTerminal

* vsa0 U78AB.001.WZSKA2R-P1-T1 LPARVirtual Serial Adapter

* vty0 U78AB.001.WZSKA2R-P1-T1-L0 AsynchronousTerminal

* pci8 U78AB.001.WZSKA2R-P1 PCIExpress Bus

+ sissas2 U78AB.001.WZSKA2R-P1-C6-T1 PCI Expressx8 Ext Dual-x4 3Gb SAS Adapter

* sas2 U78AB.001.WZSKA2R-P1-C6-T1 ControllerSAS Protocol

* sfwcomm6 SAS Storage Framework Comm

* sata2 U78AB.001.WZSKA2R-P1-C6-T1 ControllerSATA Protocol

* pci7 U78AB.001.WZSKA2R-P1 PCIExpress Bus

+ ent6 U78AB.001.WZSKA2R-P1-C5-T1 2-Port Gigabit Ethernet-SX PCI-ExpressAdapter (14103f03)

+ ent7 U78AB.001.WZSKA2R-P1-C5-T2 2-PortGigabit Ethernet-SX PCI-Express Adapter (14103f03)

* pci6 U78AB.001.WZSKA2R-P1 PCI Express Bus

+ ent4 U78AB.001.WZSKA2R-P1-C4-T1 2-PortGigabit Ethernet-SX PCI-Express Adapter (14103f03)

+ ent5 U78AB.001.WZSKA2R-P1-C4-T2 2-Port Gigabit Ethernet-SX PCI-ExpressAdapter (14103f03)

* pci5 U78AB.001.WZSKA2R-P1 PCIExpress Bus

+ fcs2 U78AB.001.WZSKA2R-P1-C3-T1 8Gb PCIExpress Dual Port FC Adapter (df1000f114108a03)

* fcnet2 U78AB.001.WZSKA2R-P1-C3-T1 FibreChannel Network Protocol Device

+ fscsi2 U78AB.001.WZSKA2R-P1-C3-T1 FC SCSI I/OController Protocol Device

* sfwcomm2 U78AB.001.WZSKA2R-P1-C3-T1-W0-L0 Fibre ChannelStorage Framework Comm

+ fcs3 U78AB.001.WZSKA2R-P1-C3-T2 8Gb PCIExpress Dual Port FC Adapter (df1000f114108a03)

* fcnet3 U78AB.001.WZSKA2R-P1-C3-T2 FibreChannel Network Protocol Device

+ fscsi3 U78AB.001.WZSKA2R-P1-C3-T2 FC SCSI I/OController Protocol Device

* sfwcomm3 U78AB.001.WZSKA2R-P1-C3-T2-W0-L0 Fibre ChannelStorage Framework Comm

* pci4 U78AB.001.WZSKA2R-P1 PCIExpress Bus

+ fcs0 U78AB.001.WZSKA2R-P1-C2-T1 8Gb PCI ExpressDual Port FC Adapter (df1000f114108a03)

* fcnet0 U78AB.001.WZSKA2R-P1-C2-T1 FibreChannel Network Protocol Device

+ fscsi0 U78AB.001.WZSKA2R-P1-C2-T1 FC SCSI I/OController Protocol Device

* hdisk8 U78AB.001.WZSKA2R-P1-C2-T1-W5000D3100070E30C-L5000000000000 Compellent FC SCSI Disk Drive

* hdisk9 U78AB.001.WZSKA2R-P1-C2-T1-W5000D3100070E30C-L6000000000000 Compellent FC SCSI Disk Drive

* sfwcomm0 U78AB.001.WZSKA2R-P1-C2-T1-W0-L0 Fibre ChannelStorage Framework Comm

+ fcs1 U78AB.001.WZSKA2R-P1-C2-T2 8Gb PCIExpress Dual Port FC Adapter (df1000f114108a03)

* fcnet1 U78AB.001.WZSKA2R-P1-C2-T2 FibreChannel Network Protocol Device

+ fscsi1 U78AB.001.WZSKA2R-P1-C2-T2 FC SCSI I/OController Protocol Device

* hdisk4 U78AB.001.WZSKA2R-P1-C2-T2-W5000D3100070E30A-L1000000000000 Compellent FC SCSI Disk Drive

*hdisk5 U78AB.001.WZSKA2R-P1-C2-T2-W5000D3100070E30A-L2000000000000 Compellent FC SCSI Disk Drive

*hdisk6 U78AB.001.WZSKA2R-P1-C2-T2-W5000D3100070E30A-L3000000000000 Compellent FC SCSI Disk Drive

*hdisk7 U78AB.001.WZSKA2R-P1-C2-T2-W5000D3100070E30A-L4000000000000 Compellent FC SCSI Disk Drive

* sfwcomm1 U78AB.001.WZSKA2R-P1-C2-T2-W0-L0 Fibre Channel StorageFramework Comm

* pci3 U78AB.001.WZSKA2R-P1 PCIExpress Bus

+ ent0 U78AB.001.WZSKA2R-P1-C7-T1 4-PortGigabit Ethernet PCI-Express Adapter (e414571614102004)

+ ent1 U78AB.001.WZSKA2R-P1-C7-T2 4-PortGigabit Ethernet PCI-Express Adapter (e414571614102004)

+ ent2 U78AB.001.WZSKA2R-P1-C7-T3 4-Port Gigabit Ethernet PCI-ExpressAdapter (e414571614102004)

+ ent3 U78AB.001.WZSKA2R-P1-C7-T4 4-PortGigabit Ethernet PCI-Express Adapter (e414571614102004)

* pci2 U78AB.001.WZSKA2R-P1 PCI ExpressBus

+ sissas1 U78AB.001.WZSKA2R-P1-C18-T1 PCIe x4Internal 3Gb SAS RAID Adapter

* sas1 U78AB.001.WZSKA2R-P1-C18-T1 ControllerSAS Protocol

* sfwcomm5 SAS Storage Framework Comm

+ ses0 U78AB.001.WZSKA2R-P2-Y2 SASEnclosure Services Device

+ ses1 U78AB.001.WZSKA2R-P2-Y1 SASEnclosure Services Device

* tmscsi1 U78AB.001.WZSKA2R-P1-C18-T1-LFE0000-L0 SAS I/O ControllerInitiator Device

* sata1 U78AB.001.WZSKA2R-P1-C18-T1 Controller SATAProtocol

* pci1 U78AB.001.WZSKA2R-P1 PCIExpress Bus

* pci9 U78AB.001.WZSKA2R-P1 PCIBus

+ usbhc0 U78AB.001.WZSKA2R-P1 USBHost Controller (33103500)

+ usbhc1 U78AB.001.WZSKA2R-P1 USBHost Controller (33103500)

+ usbhc2 U78AB.001.WZSKA2R-P1 USB Enhanced HostController (3310e000)

* pci0 U78AB.001.WZSKA2R-P1 PCIExpress Bus

+ sissas0 U78AB.001.WZSKA2R-P1-T9 PCIe x4Planar 3Gb SAS RAID Adapter

* sas0 U78AB.001.WZSKA2R-P1-T9 Controller SAS Protocol

* sfwcomm4 SAS StorageFramework Comm

+ hdisk0 U78AB.001.WZSKA2R-P3-D1 SAS DiskDrive (300000 MB)

+ hdisk1 U78AB.001.WZSKA2R-P3-D2 SAS DiskDrive (300000 MB)

+ hdisk2 U78AB.001.WZSKA2R-P3-D3 SAS Disk Drive (300000 MB)

+ hdisk3 U78AB.001.WZSKA2R-P3-D4 SAS DiskDrive (300000 MB)

+ ses2 U78AB.001.WZSKA2R-P2-Y1 SASEnclosure Services Device

* tmscsi0 U78AB.001.WZSKA2R-P1-T9-LFE0000-L0 SAS I/O ControllerInitiator Device

* sata0 U78AB.001.WZSKA2R-P1-T9 Controller SATA Protocol

+ cd0 U78AB.001.WZSKA2R-P3-D7 SATADVD-RAM Drive

+ L2cache0 L2 Cache

+ mem0 Memory

+ proc0 Processor

+ proc4 Processor

+ proc8 Processor

+ proc12 Processor

+ proc16 Processor

+ proc20 Processor

+ proc24 Processor

+ proc28 Processor

3.2 主机网络配置

主机网络设置检查:hosts文件系修改、网卡IP配置。

1. 编辑hosts文件,将如下内容添加到hosts文件中,指定Public IP、VIP、Private IP。

#public

172.1.1.204 rac1

172.1.1.205 rac2

# private

192.168.0.204 rac1-priv

192.168.0.205 rac2-priv

# virtual

172.1.1.206 rac1-vip

172.1.1.207 rac2-vip

#scan

172.1.1.208 scan-ip

2. 网卡的IP地址已经在系统安装过程中配置完成,可以使用如下命令检查IP配置情况:#ifconfig–a。

3.3 检查主机软件配置

主机软件配置检查包括:操作系统版本、系统内核版本、必须软件包安装。

1. 检查操作系统版本:#oslevel -s,最低要求6100-02-01。

2. 检查操作系统内核:#bootinfo -K,要求64位内核。

3. 检出主机SSH配置:#lssrc -ssshd。

4. 系统必须安装如下(或更高版本)软件包:

bos.adt.base

bos.adt.lib

bos.adt.libm

bos.perf.libperfstat 6.1.2.1 or later

bos.perf.perfstat

bos.perf.proctools

xlC.aix61.rte. 10.1.0.0 or later

xlC.rte. 10.1.0.0or later

gpfs.base 3.2.1.8or later(当使用GPFS共享文件系统时安装)

可以使用如下命令:

# lslpp -l bos.adt.*

# lslpp -l bos.perf.*

# lslpp -l xlC.*

# lslpp -l gpfs.*

来查看系统是否已经安装相应的软件包。如果系统中缺少上述软件包或者版本较低,请使用系统安装光盘安装相关软件包。

AIX 6.1需要安装如下软件包:

bos.adt.base

bos.adt.lib

bos.adt.libm

bos.perf.libperfstat 6.1.2.1 or later

bos.perf.perfstat

bos.perf.proctools

rsct.basic.rte

rsct.compat.clients.rte

xlC.aix61.rte 10.1.0.0 (or later)

AIX 5.3需要安装如下软件包:

bos.adt.base

bos.adt.lib

bos.adt.libm

bos.perf.libperfstat 5.3.9.0 or later

bos.perf.perfstat

bos.perf.proctools

rsct.basic.rte

rsct.compat.clients.rte

xlC.aix50.rte 10.1.0.0 (or later)

以上filesets安装与否可以用命令lslpp -l进行检查确认。默认安装是不全的,需要手工进行添加。同时系统盘的版本与上述也有差异,安装尝试。

其它单个补丁的要求如下:

AIX 6L installations All AIX 6L 6.1 installations Authorized Problem Analysis

Reports (APARs) for AIX 5L v. 5.3 ML06, and the following AIX

fixes:

IZ41855

IZ51456

IZ52319

AIX 5L installations All AIX 5L 5.3 installations Authorized Problem Analysis

Reports (APARs) for AIX 5L v. 5.3 ML06, and the following AIX

fixes:

IZ42940

IZ49516

IZ52331

验证:#/usr/sbin/instfix -i -k IZ41855

安装补丁:

由于6100-04不需要任何补丁,所以我们将系统升级到6100-04(但是安装grid的时候还是出现3个包未安装提示)

1、 从IBM官网上下载6100-04-00-0943

2、 将补丁文件上传至/tmp/tools下

3、smit update_all

选择不提交,保存被覆盖的文件,可以回滚操作,接受许可协议

COMMIT software updates? No

SAVE replaced files? yes

ACCEPT new license agreements? Yes

升级完后查看:

# oslevel -s

6100-04-01-0944

5. 检查java版本:#java-version,要求1.6版本64位。

3.4 创建操作系统组和用户

建立用户组,用户和目录(简易版,如果是11.2.0.4以上,rootpre.sh会要求更为细致的组,比如asmadmin等等,具体可参考文档)

创建相应的操作系统组和用户,先创建组,然后创建用户:

? 以root用户使用如下命令为网格及Oracle用户创建OS组:

#mkgroup-'A' id='501' adms='root' oinstall

#mkgroup-'A' id='502' adms='root' asmadmin

#mkgroup-'A' id='503' adms='root' asmdba

#mkgroup-'A' id='504' adms='root' asmoper

#mkgroup-'A' id='505' adms='root' dba

#mkgroup-'A' id='506' adms='root' oper

? 创建Oracle软件所有者:

#mkuser id='501' pgrp='oinstall'groups='dba,asmadmin,asmdba,asmoper' home='/home/grid' fsize=-1 cpu=-1 data=-1rss=-1 stack=-1 stack_hard=-1capabilities=CAP_NUMA_ATTACH,CAP_BYPASS_RAC_VMM,CAP_PROPAGATE grid

#mkuser id='502' pgrp='oinstall'groups='dba,asmdba,oper' home='/home/oracle' fsize=-1 cpu=-1 data=-1 rss=-1stack=-1 stack_hard=-1capabilities=CAP_NUMA_ATTACH,CAP_BYPASS_RAC_VMM,CAP_PROPAGATE oracle

? 检查上面创建的两个用户:

#id grid

#id oracle

? 使用passwd命令为grid(密码:grid)和oracle(密码:oracle)账户设置密码。

#passwdgrid

#passwdoracle

3.5 创建软件安装目录结构并更改权限

修改磁盘数组为grid oinstall(如果是11.2.0.4以上,根据设置的需求,可能会要求更改为 grid dba,是具体设置而定):

创建Oracle软件相应的目录结构,包括:GRID目录,RDBMS目录。

注意grid用户的BASE目录和HOME目录不能有父子关系。

? 以root用户创建“Oracle inventory 目录”,并更改权限:

#mkdir-p /u01/app/oraInventory

#chown-R grid:oinstall /u01/app/oraInventory

#chmod-R 775 /u01/app/oraInventory

? 以root用户创建“Grid Infrastructure BASE 目录”

#mkdir-p /u01/app/grid

#chowngrid:oinstall /u01/app/grid

#chmod-R 775 /u01/app/grid

? 以root用户创建“Grid Infrastructure Home 目录”

#mkdir-p /u01/app/11.2.0/grid

#chown-R grid:oinstall /u01/app/11.2.0/grid

#chmod-R 775 /u01/app/11.2.0/grid

? 以root用户创建“Oracle Base 目录”

#mkdir-p /u01/app/oracle

#mkdir/u01/app/oracle/cfgtoollogs

#chown-R oracle:oinstall /u01/app/oracle

#chmod-R 775 /u01/app/oracle

? 以root用户创建“Oracle RDBMS Home 目录”

#mkdir-p /u01/app/oracle/product/11.2.0/db_1

#chown-R oracle:oinstall /u01/app/oracle/product/11.2.0/db_1

#chmod-R 775 /u01/app/oracle/product/11.2.0/db_1

3.6 修改用户环境参数文件

如果分别以oracle用户和grid用户修改环境参数文件,修改之后可以使用如下命令使其生效:$.profile。如果使用root用户修改则不需要重新加载环境配置文件。

1. 在rac1节点上设置grid用户和oracle的环境变量参数。

? grid用户:编辑家目下的.profile文件,添加如下内容:

umask 022

export ORACLE_BASE=/u01/app/grid

export ORACLE_HOME=/u01/app/11.2.0/grid

export ORACLE_SID=+ASM1

export ORACLE_HOSTNAME=rac1

export NLS_LANG=AMERICAN_AMERICA.AL32UTF8

export NLS_DATE_FORMAT="yyyy-mm-ddhh24:mi:ss"

export PATH=$PATH:$ORACLE_HOME/bin:$ORACLE_HOME/OPatch

? oracle用户:编辑家目下的.profile文件,添加如下内容:

umask 022

export ORACLE_BASE=/u01/app/oracle

exportORACLE_HOME=/u01/app/oracle/product/11.2.0/db_1

export ORACLE_SID=rac1

export ORACLE_HOSTNAME=rac1

export ORACLE_UNQNAME=rac

export NLS_LANG=AMERICAN_AMERICA.AL32UTF8

export NLS_DATE_FORMAT="yyyy-mm-ddhh24:mi:ss"

export PATH=$PATH:$ORACLE_HOME/bin:$ORACLE_HOME/OPatch

2. 在rac2节点上设置grid用户和oracle的环境变量参数。

? grid用户:编辑家目下的.profile文件,添加如下内容:

umask 022

export ORACLE_BASE=/u01/app/grid

export ORACLE_HOME=/u01/app/11.2.0/grid

export ORACLE_SID=+ASM2

export ORACLE_HOSTNAME=rac2

export NLS_LANG=AMERICAN_AMERICA.AL32UTF8

export NLS_DATE_FORMAT="yyyy-mm-ddhh24:mi:ss"

export PATH=$PATH:$ORACLE_HOME/bin:$ORACLE_HOME/OPatch

? oracle用户:编辑家目下的.profile文件,添加如下内容:

umask 022

exportORACLE_BASE=/u01/app/oracle

exportORACLE_HOME=/u01/app/oracle/product/11.2.0/db_1

export ORACLE_SID=rac2

export ORACLE_HOSTNAME=rac2

export ORACLE_UNQNAME=rac

export NLS_LANG=AMERICAN_AMERICA.AL32UTF8

export NLS_DATE_FORMAT="yyyy-mm-ddhh24:mi:ss"

export PATH=$PATH:$ORACLE_HOME/bin:$ORACLE_HOME/OPatch

注意:环境变量要注意是否含有空格,虽然安装可以正常进行,但是安装完后命令都不能正常执行,比如你在grid用户执行asmcmd,进入的是一个空实例,你无法管理ASM实例,那么出了问题就回天无力了,所以还是注意检查下,就算安装完了,也需要重新请重装。

3.7 系统部分参数修改

系统参数的修改包括:虚拟内存管理参数、网络参数、系统内核参数、异步IO。

AIX 6.1以后,下属值貌似是缺省值了,跟Oracle installguide一致,因此无需修改:
vmo -p -o minperm%=3
vmo -p -o maxperm%=90
vmo -p -o maxclient%=90
vmo -p -o lru_file_repage=0
vmo -p -o strict_maxclient=1
vmo -p -o strict_maxperm=0

1. 分别使用如下命令查看虚拟内存管理参数,

vmo -L minperm%

vmo -L maxperm%

vmo -L maxclient%

vmo -L lru_file_repage

vmo -L strict_maxclient

vmo -L strict_maxperm

如果设置不合适,使用如下命令修改:

#vmo -p -o minperm%=3

#vmo -p -o maxperm%=90

#vmo -p -o maxclient%=90

#vmo -p -o lru_file_repage=0

#vmo -p -o strict_maxclient=1

#vmo -p -o strict_maxperm=0

2. 检查网络参数设置

? ephemeral参数:

使用命令no -a |fgrep ephemeral可以查看当前系统ephemeral参数设置,建议的参数设置如下

tcp_ephemeral_high = 65500

tcp_ephemeral_low = 9000

udp_ephemeral_high= 65500

udp_ephemeral_low = 9000

如果系统中参数设置和上述值不一样,使用命令修改:

#no -p -o tcp_ephemeral_low=9000 -o tcp_ephemeral_high=65500

#no -p -o udp_ephemeral_low=9000 -o udp_ephemeral_high=65500

? 使用如下命令修改网络可调整参数:

#no -r -o rfc1323=1

#no -r -o ipqmaxlen=512

#no -p -o sb_max=4194304

#no -p -o tcp_recvspace=65536

#no -p -o tcp_sendspace=65536

#no -p -o udp_recvspace=1351680 该值是udp_sendspace的10倍,但须小于sb_max

#no -p -o udp_sendspace=135168

备注:-r表示reboot后生效,-p表示即刻生效.

3. 检查内核参数maxuproc(建议16384)和ncargs(至少128)

#lsattr -E -l sys0 -a ncargs

#lsattr -E -l sys0 -a maxuproc

如果设置不合适使用如下命令修改:

#chdev -l sys0 -a ncargs=256

#chdev -l sys0 -a maxuproc=16384

4. 检查异步IO是否开启,AIX6.1默认系统已经开启,使用如下命令查询:

#ioo -a | more 或 #ioo -o aio_maxreqs

注意:AIX5.3使用如下命令查看lsattr -El aio0 -a maxreqs

3.8 配置共享存储

下面的几步操作均需要在所有节点执行。

1. 修改物理卷的属主和权限:

#chown grid:asmadmin /dev/rhdisk4

#chown grid:asmadmin /dev/rhdisk5

#chown grid:asmadmin /dev/rhdisk6

#chown grid:asmadmin /dev/rhdisk7

#chown grid:asmadmin /dev/rhdisk8

#chown grid:asmadmin /dev/rhdisk9

#chown grid:asmadmin /dev/rhdisk10

#chown grid:asmadmin /dev/rhdisk11

#chown grid:asmadmin /dev/rhdisk12

#chmod 660 /dev/rhdisk4

#chmod 660 /dev/rhdisk5

#chmod 660 /dev/rhdisk6

#chmod 660 /dev/rhdisk7

#chmod 660 /dev/rhdisk8

#chmod 660 /dev/rhdisk9

#chmod 660 /dev/rhdisk10

#chmod 660 /dev/rhdisk11

#chmod 660 /dev/rhdisk12

2. 修改物理卷属性,共享存储磁盘的reserve_policy属性需要是no,使用如下命令查看:

#lsattr -E -l hdisk4 | grep reserve_policy

#lsattr -E -l hdisk5 | grep reserve_policy

#lsattr -E -l hdisk6 | grep reserve_policy

#lsattr -E -l hdisk7 | grep reserve_policy

#lsattr -E -l hdisk8 | grep reserve_policy

#lsattr -E -l hdisk9 | grep reserve_policy

#lsattr -E -l hdisk10 | grepreserve_policy

#lsattr -E -l hdisk11 | grepreserve_policy

#lsattr -E -l hdisk12 | grepreserve_policy

如果需要修改reserve_policy属性,使用如下命令:

#chdev -l hdisk4 -areserve_policy=no_reserve

#chdev -l hdisk5 -areserve_policy=no_reserve

#chdev -l hdisk6 -areserve_policy=no_reserve

#chdev -l hdisk7 -areserve_policy=no_reserve

#chdev -l hdisk8 -areserve_policy=no_reserve

#chdev -l hdisk9 -areserve_policy=no_reserve

#chdev -l hdisk10 -areserve_policy=no_reserve

#chdev -l hdisk11 -areserve_policy=no_reserve

#chdev -l hdisk12 -areserve_policy=no_reserve

3、每台主机的硬盘信息

hdisk0 00f8e8092df611fa rootvg active

hdisk1 00f8e8082e4a46d5 rootvg active

hdisk2 00f8e80857a08edf appvg active

hdisk3 none None

#本地磁盘,其中hdisk0和hdisk1做成系统镜像,hdisk2和hdisk3做成镜像用于应用安装

hdisk4 none None

hdisk5 none None

hdisk6 none None

#oracle 的OCR和Voting盘,设置为正常冗余

hdisk7 none None

hdisk8 none None

人气教程排行