oracle数据库安装 - 图文

更新时间:2024-02-01 01:35:01 阅读量: 教育文库 文档下载

说明:文章内容仅供预览,部分内容可能不全。下载后的文档,内容与下面显示的完全一致。下载之前请确认下面内容是否您想要的,是否完整无缺。

RAC 10g Windows 2000安装与使用手册

VM GSX 下10g RAC for windows 安装

Oracle 10g RAC 安装比Oracle 9i RAC 有许多的改进, Oracle 在10g 中包含CRS(Cluster Ready Service) ,支持AIX, Solaris, HPUX, Linux 和Windows 平台。不再需要其它双机软件的安装。 10g 的RAC 基本安装步骤包括:

? 操作系统安装

Windows 推荐Windows Advanced Server 2000 + sp4 Linux 推荐RHEL AS3 update 3

? 共享存储的设置

-OCFS -RAW -ASM -NFS( 官方称需认证) ?安装CRS(Cluster Ready Services)

Cluster Ready Service 类似简单的hacmp, sun cluster ?安装Oracle 软件?安装

VIP 网络

CRS 的补充,cluster 网络资源的定义。?创建数据库可

dbca 或手工两种方式, 创建数据库。

10g 支持以下几种存储方式

RAC10g _gsx_Win2k 安装详细步骤10g RAC 双机配置结构图

操作系统安装

1、 主机

主机环境: Intel PC 服务器(2路PIII850 CPU + 512M + 18GB SCSI),安装Win2k AS+SP4

2、 虚拟机

rac1 内存设置为212M; rac2 内存设置为128M; 各配2 个网卡; 虚拟机上安装Win2k AS + SP4

3、 虚拟机上IP 分配

c:\\winnt\\system32\\drivers\\etc\\hosts 文件内容:

rac1 192.168.10.1 01(使用公网接口) rac2 192.168.10.1 02(使用公网接口) vip1 192.168.10.2 01(使用公网接口) vip2 192.168.10.2 02(使用公网接口) priv1 192.168.0.1 (使用私有接口) pviv2 192.168.0.2 (使用私有接口)

共享存储的设置

1:创建扩展分区(类型:基本磁盘) 2. 不指派驱动器号或驱动器路径

3:不要格式化磁盘分区 4. Summary

CRS 安装

1:Welcome 界面:2. 指定Inventory 目录

3.指定文件位置4. 选择语言

5.指定公共名称和专用节点 6. 网指定网络接口用法

7.选择磁盘格式化 8. 选择数据存储驱动器

9.概要 10. 软件复制(包括集群全部结点,如下图rac2)

11. 配置群集三个助理12.安装结束

13.CRS 集群日常管理

1) Oracle 群集就绪服务配置

c:\\oracle\\product\\10.1.0\\crs/install/crssetup.config.bat

2) Oracle Notification Server 配置

C:\\oracle\\product\\10.1.0\\crs/bin/racgons.exe add_config rac1:4948 rac2:4948 3) Oracle 专用互联配置

c:\\oracle\\product\\10.1.0\\crs/bin/oifcfg setif -global pub/192.168.10.0:public inter/192.168.0.0:cluster_interconnect

4) 实例工具

c:\\oracle\\product\\10.1.0\\crs/bin\\olsnodes.exe {–n | -v }

Software 安装

1.文件位置 2. 群集安装选择节点(若不出此画面,则群集安装有问题)

3.数据库类型选择4: 数据库配置-不创建启动数据库

由于虚拟机内存较小,选择定制数据库,而不用模板数据库。因而, 这一步选择不创建数据库。介质复制结束之后,再分别调用vipca、netca 和dbca 三个配置助理工具进行Virtual IP 配置、网络配置及数据库创建。

5.文件复制(下图正向节点’ rac2’复制文件) 6. 安装结束

VIP 网络配置

1. 选择网络接口 2. 定义虚拟IP 资源应用程序时需要IP 地址

3.概要 4. 配置进度对话框

5 配置结果

NetCA 配置

1 1. listener.ora文件 2 2. tnsnames.ora文件

DBCA 建库

第1 步--第4 步

5 管理选项6 统一口令管理

7 数据存储方式8 文件统一管理

9:快速恢复区

OEM 管理

Web 登录界面:http://rac1:5500/em 许可页面

OEM 性能

OEM 管理

OEM 维护

TAF 测试 测试当前RAC 中

活动的实例

SQL>select * from v$active_instances; TAF 测试

客户端会话连接,如SQL*PLUS: SQL>set time on SQL>set timing on

SQL>connect system/manager@racdb;

确认会话所用的instance 后,; SQL>select instance_name from v$instance;

开启另一窗口, 将相应的instance 关闭SQL>connect “/ as sysdba” SQL>shutdown immediate; 重新发布查询语句:SQL>select instance_name from v$instance; 确认会话自动重定向为新的instance;

DBA 日常操作

1、RAC 的启动次序通常,Windows2000 在系统启动后,会自动依次启动下列相关服务进程:

CRS 的启动自动加载四项相关服务,LISTENER 启动VIP 启动InstanceSID 启动:后台自动一项服务:DBConsle 启动:后台自动启动一项服务 2、相关命令行工具有

olsnodes –n | -v 查看CRS 启动后包含的节点信息; oifcfg getif 相看网络接口的分配情况; Ipconfig 查看VIP 绑定的情况;

lsnrctl status listerner_rac1 查看监听状态 netca 网络配置助理工具

vipca 虚拟专用网络配置助理 dbca 数据创建助理

emca 企业管理器创建助理

HP-UX 11.31 下Oracle10.2.0.1 RAC 4 node安装手册

硬件:

2个HP Integrity Superdome 划分的4个VSE,存储阵列,光纤交换机

软件:

Hp-ux 11.31 ;

Oracle clusterWare;

Oracle database 10.2.0.1;

p5337014_10203_HPUX-IA64补丁;

oracle RAC的架构图:

SG/SGe、oracle clusterWare、slvm、cvm/CFS、raw、asm之间的相互关系图:

本文档使用的是如下的架构,此种架构可以摆脱第三方cluster软件的限制,具有多平台的通用性,并且便于管理。 RAC 10gR2

Oracle ClusterWare Only

ASM

RAC安装过程前的准备工作

硬件安装架构图组建好;

操作系统安装统一的hp-ux11.31; 多网卡绑定冗余设置; 多通道冗余配置; 阵列的划分等等;

确认划分了asm使用的磁盘和voting使用磁盘(100M)和ocr使用的磁盘(300M) 以上工作有hp工程师安装、设置妥当。

RAC安装过程

检查物理内存

/usr/contrib/bin/machinfo | grep -i Memory /usr/sbin/dmesg | grep \查看交换空间

/usr/sbin/swapinfo –a

对于小于2g物理内存的系统,设置为物理内存的2倍。对应大于2g内存的系统,设置为跟物理内存同样大小。 检查临时空间 bdf /tmp

保证至少400m,推荐1g

如果没有400M可以设置oracle用户的环境变量,增加临时空间 $ oracle用户执行 vi ~/.profile,增加 export TEMP=/directory export TMPDIR=/directory

检查磁盘空间 bdf

文档上说至少4g空间,但是实际安装完成后发现crs和database大概占用了5.5G的空间,所以推荐至少6G的空间,如果空间允许给出更多更好,便于存储trace文件,跟踪问题。 个人意见:此外建议再额外划分6g的空间备用,主要用于存储安装软件、升级数据库前的备份crs和database,以防止升级过程出现意外。 查看系统时间 date

查看每个节点的日期时间,尽可能的同步,如果不同步,用date MMDDHHMIYY ,比如2007/09/09 10:21,可以如下设置:date 0909102107进行同步 查看是否开启RAW设备的异步I/O 默认是开启的. ll /dev/async

# crw-rw-rw- 1 bin bin 101 0x000000 Jun 9 09:38 /dev/async

#如果没有开启,可以通过如下方法开启: #创建/dev/async character device /sbin/mknod /dev/async c 101 0x0 chown oracle:dba /dev/async chmod 660 /dev/async

#用SAM在 kernel配置async driver => Kernel Configuration => Kernel

=> the driver is called 'asyncdsk'

Generate new kernel(生成新的kernel)

#重新启动

reboot

#或者 shutdown -r -y 0

#用sam设置HP-UX kernel参数

max_async_ports = init.ora参数中指定的processes值 + oracle后台进程的数量 aio_max_ops = 默认2048

检查符合的连接是否存在 cd /usr/lib ls libX*.sl

# 如果不存在需要创建 cd /usr/lib

ln -s libX11.3 libX11.sl ln -s libXIE.2 libXIE.sl ln -s libXext.3 libXext.sl ln -s libXhp11.3 libXhp11.sl ln -s libXi.3 libXi.sl ln -s libXm.4 libXm.sl ln -s libXp.2 libXp.sl ln -s libXt.3 libXt.sl ln -s libXtst.2 libXtst.sl

ls -al libX*.sl 查看网络接口 #查看各个接口 lanscan

#显示各个接口的ip和状态 (需要保证每台节点上使用的接口具有相同的名字) netstat -in

# 显示指定接口的当前配置 ifconfig lanX

保证一个接口比如lan0为外部连接用,一个接口如lan1为内部心跳线。vip的ip跟外部接口要在一个网段

编辑/etc/hosts文件 添加如下内容:

10.3.20.51 EHR01 10.3.20.53 EHR01-vip 192.168.0.1 EHR01-priv

10.3.20.52 EHR11 10.3.20.54 EHR11-vip 192.168.0.2 EHR11-priv

10.3.20.48 EHR02 10.3.20.50 EHR02-vip 192.168.0.3 EHR02-priv

10.3.20.47 EHR12 10.3.20.49 EHR12-vip 192.168.0.4 EHR12-priv

127.0.0.1 localhost localhost.domain

注意: hosts中必须存在127.0.0.1的条目,且只能对应localhost相关,不能对应hostname;如果不设置127.0.0.1,则无法正常启动数据库。 查看hp-ux的具体patch和pack

/usr/sbin/swlist -l bundle | grep xxxName /usr/sbin/swlist -l patch

/usr/sbin/swlist -l patch

注:Hp-ux 11.31的默认安装过程,能够满足oracle 10.2.0.1的安装需求。 调整kenel参数的设置

#11iv1(11.11)及11.00的看内核命令是kmtune,HPUX11iv2(11.22和11.23)是kctune. #安照自己机器上的内存数量调整shmmax的值 kctune -h nproc=\

kctune -h ksi_alloc_max=\kctune -h max_thread_proc=\kctune -h maxdsiz=\

kctune -h maxdsiz_64bit=\kctune -h maxssiz=\

kctune -h maxssiz_64bit=\

#maxswapchunks or swchunk在>=HP-UX 11iV2的版本不被应用 #kctune -h maxswapchunks=\kctune -h maxuprc=\kctune -h msgmap=\kctune -h msgmni=\

#msgseg=(nproc*4),且至少32767 kctune -h msgseg=\kctune -h msgtql=\

#ncsize 对于 >=HP-UX 11.23 use (ninode+1024) kctune -h ncsize=\kctune -h nfile=\kctune -h nflocks=\

kctune -h ninode=\kctune -h nkthread=\kctune -h semmap=\kctune -h semmni=\

kctune -h semmns=\kctune -h semmnu=\kctune -h semvmx=\

kctune -h shmmax=\kctune -h shmmni=\kctune -h shmseg=\kctune -h vps_ceiling=\

添加组和用户、创建相关目录结构 groupadd -g 201 dba groupadd -g 200 oinstall

useradd -u 200 -g oinstall -G dba,oinstall oracle

#如果没有创建oracle的默认目录,创建默认目录 /home/oracle id oracle

#检查是否存在nobody用户 id nobody

#创建clusterWare和oracle的安装目录 mkdir -p /oracle/product/CRS mkdir -p /oracle/product/RAC10g chown -R oracle:oinstall /oracle chmod -R 775 /oracle

修改设备文件的owner, group, permissions

#查看盘符和pv的关联关系命令:ioscan -m dsf ,或者ioscan –m lun; iosan –m lun的输入内容部分如下:

disk 76 64000/0xfa00/0x15 esdisk CLAIMED DEVICE online HITACHI OPEN-E 0/0/2/1/1.0x50060e801444a410.0x4002000000000000 0/0/6/1/1.0x50060e801444a430.0x4002000000000000 0/0/10/1/0.0x50060e801444a440.0x4002000000000000

disk 86 64000/0xfa00/0x2d esdisk CLAIMED DEVICE online HITACHI OPEN-E 4/0/6/1/0.0x50060e801444a421.0x400c000000000000 4/0/10/1/0.0x50060e801444a441.0x400c000000000000 4/0/12/1/1.0x50060e801444a471.0x400c000000000000 保证每台机器上看到的上面的红色部分要相互对应一致

实际环境中每个asm盘配有6个控制器来增加冗余,每个voting和ocr盘配有3个控制器。 #设置ASM和Voting盘使用的raw磁盘或者raw分区: ##192.168.2.101

chown oracle:dba /dev/rdisk/disk137 chown oracle:dba /dev/rdisk/disk138 chown oracle:dba /dev/rdisk/disk139 chown oracle:dba /dev/rdisk/disk83 chown oracle:dba /dev/rdisk/disk84

chown oracle:dba /dev/rdisk/disk85 chown oracle:dba /dev/rdisk/disk86 chown oracle:dba /dev/rdsk/c11t1d1 chown oracle:dba /dev/rdsk/c11t1d2 chown oracle:dba /dev/rdsk/c11t1d3 chown oracle:dba /dev/rdsk/c11t1d4 chown oracle:dba /dev/rdsk/c11t1d5 chown oracle:dba /dev/rdsk/c11t1d6 chown oracle:dba /dev/rdsk/c11t1d7 chown oracle:dba /dev/rdsk/c13t1d1 chown oracle:dba /dev/rdsk/c13t1d2 chown oracle:dba /dev/rdsk/c13t1d3 chown oracle:dba /dev/rdsk/c13t1d4 chown oracle:dba /dev/rdsk/c13t1d5 chown oracle:dba /dev/rdsk/c13t1d6 chown oracle:dba /dev/rdsk/c13t1d7 chown oracle:dba /dev/rdsk/c15t1d5 chown oracle:dba /dev/rdsk/c15t1d6 chown oracle:dba /dev/rdsk/c15t1d7 chown oracle:dba /dev/rdsk/c4t1d5 chown oracle:dba /dev/rdsk/c4t1d6 chown oracle:dba /dev/rdsk/c4t1d7 chown oracle:dba /dev/rdsk/c6t1d1 chown oracle:dba /dev/rdsk/c6t1d2 chown oracle:dba /dev/rdsk/c6t1d3 chown oracle:dba /dev/rdsk/c6t1d4 chown oracle:dba /dev/rdsk/c6t1d5 chown oracle:dba /dev/rdsk/c6t1d6 chown oracle:dba /dev/rdsk/c6t1d7 chown oracle:dba /dev/rdsk/c9t1d5 chown oracle:dba /dev/rdsk/c9t1d6 chown oracle:dba /dev/rdsk/c9t1d7

chmod 660 /dev/rdisk/disk137 chmod 660 /dev/rdisk/disk138 chmod 660 /dev/rdisk/disk139 chmod 660 /dev/rdisk/disk83 chmod 660 /dev/rdisk/disk84 chmod 660 /dev/rdisk/disk85 chmod 660 /dev/rdisk/disk86 chmod 660 /dev/rdsk/c11t1d1 chmod 660 /dev/rdsk/c11t1d2 chmod 660 /dev/rdsk/c11t1d3 chmod 660 /dev/rdsk/c11t1d4

chmod 660 /dev/rdsk/c11t1d5 chmod 660 /dev/rdsk/c11t1d6 chmod 660 /dev/rdsk/c11t1d7 chmod 660 /dev/rdsk/c13t1d1 chmod 660 /dev/rdsk/c13t1d2 chmod 660 /dev/rdsk/c13t1d3 chmod 660 /dev/rdsk/c13t1d4 chmod 660 /dev/rdsk/c13t1d5 chmod 660 /dev/rdsk/c13t1d6 chmod 660 /dev/rdsk/c13t1d7 chmod 660 /dev/rdsk/c15t1d5 chmod 660 /dev/rdsk/c15t1d6 chmod 660 /dev/rdsk/c15t1d7 chmod 660 /dev/rdsk/c4t1d5 chmod 660 /dev/rdsk/c4t1d6 chmod 660 /dev/rdsk/c4t1d7 chmod 660 /dev/rdsk/c6t1d1 chmod 660 /dev/rdsk/c6t1d2 chmod 660 /dev/rdsk/c6t1d3 chmod 660 /dev/rdsk/c6t1d4 chmod 660 /dev/rdsk/c6t1d5 chmod 660 /dev/rdsk/c6t1d6 chmod 660 /dev/rdsk/c6t1d7 chmod 660 /dev/rdsk/c9t1d5 chmod 660 /dev/rdsk/c9t1d6 chmod 660 /dev/rdsk/c9t1d7

##192.168.2.102

chown oracle:dba /dev/rdisk/disk137 chown oracle:dba /dev/rdisk/disk138 chown oracle:dba /dev/rdisk/disk139 chown oracle:dba /dev/rdisk/disk83 chown oracle:dba /dev/rdisk/disk84 chown oracle:dba /dev/rdisk/disk85 chown oracle:dba /dev/rdisk/disk86 chown oracle:dba /dev/rdsk/c11t1d1 chown oracle:dba /dev/rdsk/c11t1d2 chown oracle:dba /dev/rdsk/c11t1d3 chown oracle:dba /dev/rdsk/c11t1d4 chown oracle:dba /dev/rdsk/c11t1d5 chown oracle:dba /dev/rdsk/c11t1d6 chown oracle:dba /dev/rdsk/c11t1d7 chown oracle:dba /dev/rdsk/c13t1d1 chown oracle:dba /dev/rdsk/c13t1d2

chown oracle:dba /dev/rdsk/c13t1d3 chown oracle:dba /dev/rdsk/c13t1d4 chown oracle:dba /dev/rdsk/c13t1d5 chown oracle:dba /dev/rdsk/c13t1d6 chown oracle:dba /dev/rdsk/c13t1d7 chown oracle:dba /dev/rdsk/c15t1d5 chown oracle:dba /dev/rdsk/c15t1d6 chown oracle:dba /dev/rdsk/c15t1d7c chown oracle:dba /dev/rdsk/c5t1d5 chown oracle:dba /dev/rdsk/c5t1d6 chown oracle:dba /dev/rdsk/c5t1d7 chown oracle:dba /dev/rdsk/c7t1d5 chown oracle:dba /dev/rdsk/c7t1d6 chown oracle:dba /dev/rdsk/c7t1d7 chown oracle:dba /dev/rdsk/c9t1d1 chown oracle:dba /dev/rdsk/c9t1d2 chown oracle:dba /dev/rdsk/c9t1d3 chown oracle:dba /dev/rdsk/c9t1d4 chown oracle:dba /dev/rdsk/c9t1d5 chown oracle:dba /dev/rdsk/c9t1d6 chown oracle:dba /dev/rdsk/c9t1d7

chmod 660 /dev/rdisk/disk137 chmod 660 /dev/rdisk/disk138 chmod 660 /dev/rdisk/disk139 chmod 660 /dev/rdisk/disk83 chmod 660 /dev/rdisk/disk84 chmod 660 /dev/rdisk/disk85 chmod 660 /dev/rdisk/disk86 chmod 660 /dev/rdsk/c11t1d1 chmod 660 /dev/rdsk/c11t1d2 chmod 660 /dev/rdsk/c11t1d3 chmod 660 /dev/rdsk/c11t1d4 chmod 660 /dev/rdsk/c11t1d5 chmod 660 /dev/rdsk/c11t1d6 chmod 660 /dev/rdsk/c11t1d7 chmod 660 /dev/rdsk/c13t1d1 chmod 660 /dev/rdsk/c13t1d2 chmod 660 /dev/rdsk/c13t1d3 chmod 660 /dev/rdsk/c13t1d4 chmod 660 /dev/rdsk/c13t1d5 chmod 660 /dev/rdsk/c13t1d6 chmod 660 /dev/rdsk/c13t1d7 chmod 660 /dev/rdsk/c15t1d5

chmod 660 /dev/rdsk/c15t1d6 chmod 660 /dev/rdsk/c15t1d7c chmod 660 /dev/rdsk/c5t1d5 chmod 660 /dev/rdsk/c5t1d6 chmod 660 /dev/rdsk/c5t1d7 chmod 660 /dev/rdsk/c7t1d5 chmod 660 /dev/rdsk/c7t1d6 chmod 660 /dev/rdsk/c7t1d7 chmod 660 /dev/rdsk/c9t1d1 chmod 660 /dev/rdsk/c9t1d2 chmod 660 /dev/rdsk/c9t1d3 chmod 660 /dev/rdsk/c9t1d4 chmod 660 /dev/rdsk/c9t1d5 chmod 660 /dev/rdsk/c9t1d6 chmod 660 /dev/rdsk/c9t1d7

##192.168.2.103

chown oracle:dba /dev/rdisk/disk137 chown oracle:dba /dev/rdisk/disk138 chown oracle:dba /dev/rdisk/disk139 chown oracle:dba /dev/rdisk/disk83 chown oracle:dba /dev/rdisk/disk84 chown oracle:dba /dev/rdisk/disk85 chown oracle:dba /dev/rdisk/disk86 chown oracle:dba /dev/rdsk/c11t1d5 chown oracle:dba /dev/rdsk/c11t1d6 chown oracle:dba /dev/rdsk/c11t1d7 chown oracle:dba /dev/rdsk/c13t1d5 chown oracle:dba /dev/rdsk/c13t1d6 chown oracle:dba /dev/rdsk/c13t1d7 chown oracle:dba /dev/rdsk/c15t1d1 chown oracle:dba /dev/rdsk/c15t1d2 chown oracle:dba /dev/rdsk/c15t1d3 chown oracle:dba /dev/rdsk/c15t1d4 chown oracle:dba /dev/rdsk/c15t1d5 chown oracle:dba /dev/rdsk/c15t1d6 chown oracle:dba /dev/rdsk/c15t1d7 chown oracle:dba /dev/rdsk/c5t1d5 chown oracle:dba /dev/rdsk/c5t1d6 chown oracle:dba /dev/rdsk/c5t1d7 chown oracle:dba /dev/rdsk/c8t1d1 chown oracle:dba /dev/rdsk/c8t1d2 chown oracle:dba /dev/rdsk/c8t1d3

chown oracle:dba /dev/rdsk/c8t1d4 chown oracle:dba /dev/rdsk/c8t1d5 chown oracle:dba /dev/rdsk/c8t1d6 chown oracle:dba /dev/rdsk/c8t1d7 chown oracle:dba /dev/rdsk/c9t1d1 chown oracle:dba /dev/rdsk/c9t1d2 chown oracle:dba /dev/rdsk/c9t1d3 chown oracle:dba /dev/rdsk/c9t1d4 chown oracle:dba /dev/rdsk/c9t1d5 chown oracle:dba /dev/rdsk/c9t1d6 chown oracle:dba /dev/rdsk/c9t1d7

chmod 660 /dev/rdisk/disk137 chmod 660 /dev/rdisk/disk138 chmod 660 /dev/rdisk/disk139 chmod 660 /dev/rdisk/disk83 chmod 660 /dev/rdisk/disk84 chmod 660 /dev/rdisk/disk85 chmod 660 /dev/rdisk/disk86 chmod 660 /dev/rdsk/c11t1d5 chmod 660 /dev/rdsk/c11t1d6 chmod 660 /dev/rdsk/c11t1d7 chmod 660 /dev/rdsk/c13t1d5 chmod 660 /dev/rdsk/c13t1d6 chmod 660 /dev/rdsk/c13t1d7 chmod 660 /dev/rdsk/c15t1d1 chmod 660 /dev/rdsk/c15t1d2 chmod 660 /dev/rdsk/c15t1d3 chmod 660 /dev/rdsk/c15t1d4 chmod 660 /dev/rdsk/c15t1d5 chmod 660 /dev/rdsk/c15t1d6 chmod 660 /dev/rdsk/c15t1d7 chmod 660 /dev/rdsk/c5t1d5 chmod 660 /dev/rdsk/c5t1d6 chmod 660 /dev/rdsk/c5t1d7 chmod 660 /dev/rdsk/c8t1d1 chmod 660 /dev/rdsk/c8t1d2 chmod 660 /dev/rdsk/c8t1d3 chmod 660 /dev/rdsk/c8t1d4 chmod 660 /dev/rdsk/c8t1d5 chmod 660 /dev/rdsk/c8t1d6 chmod 660 /dev/rdsk/c8t1d7 chmod 660 /dev/rdsk/c9t1d1 chmod 660 /dev/rdsk/c9t1d2

chmod 660 /dev/rdsk/c9t1d3 chmod 660 /dev/rdsk/c9t1d4 chmod 660 /dev/rdsk/c9t1d5 chmod 660 /dev/rdsk/c9t1d6 chmod 660 /dev/rdsk/c9t1d7

##192.168.2.104

chown oracle:dba /dev/rdisk/disk137 chown oracle:dba /dev/rdisk/disk138 chown oracle:dba /dev/rdisk/disk139 chown oracle:dba /dev/rdisk/disk83 chown oracle:dba /dev/rdisk/disk84 chown oracle:dba /dev/rdisk/disk85 chown oracle:dba /dev/rdisk/disk86 chown oracle:dba /dev/rdsk/c10t1d1 chown oracle:dba /dev/rdsk/c10t1d2 chown oracle:dba /dev/rdsk/c10t1d3 chown oracle:dba /dev/rdsk/c10t1d4 chown oracle:dba /dev/rdsk/c10t1d5 chown oracle:dba /dev/rdsk/c10t1d6 chown oracle:dba /dev/rdsk/c10t1d7 chown oracle:dba /dev/rdsk/c11t1d5 chown oracle:dba /dev/rdsk/c11t1d6 chown oracle:dba /dev/rdsk/c11t1d7 chown oracle:dba /dev/rdsk/c13t1d1 chown oracle:dba /dev/rdsk/c13t1d2 chown oracle:dba /dev/rdsk/c13t1d3 chown oracle:dba /dev/rdsk/c13t1d4 chown oracle:dba /dev/rdsk/c13t1d5 chown oracle:dba /dev/rdsk/c13t1d6 chown oracle:dba /dev/rdsk/c13t1d7 chown oracle:dba /dev/rdsk/c15t1d5 chown oracle:dba /dev/rdsk/c15t1d6 chown oracle:dba /dev/rdsk/c15t1d7 chown oracle:dba /dev/rdsk/c5t1d5 chown oracle:dba /dev/rdsk/c5t1d6 chown oracle:dba /dev/rdsk/c5t1d7 chown oracle:dba /dev/rdsk/c9t1d1 chown oracle:dba /dev/rdsk/c9t1d2 chown oracle:dba /dev/rdsk/c9t1d3 chown oracle:dba /dev/rdsk/c9t1d4 chown oracle:dba /dev/rdsk/c9t1d5 chown oracle:dba /dev/rdsk/c9t1d6 chown oracle:dba /dev/rdsk/c9t1d7

chmod 660 /dev/rdisk/disk137 chmod 660 /dev/rdisk/disk138 chmod 660 /dev/rdisk/disk139 chmod 660 /dev/rdisk/disk83 chmod 660 /dev/rdisk/disk84 chmod 660 /dev/rdisk/disk85 chmod 660 /dev/rdisk/disk86 chmod 660 /dev/rdsk/c10t1d1 chmod 660 /dev/rdsk/c10t1d2 chmod 660 /dev/rdsk/c10t1d3 chmod 660 /dev/rdsk/c10t1d4 chmod 660 /dev/rdsk/c10t1d5 chmod 660 /dev/rdsk/c10t1d6 chmod 660 /dev/rdsk/c10t1d7 chmod 660 /dev/rdsk/c11t1d5 chmod 660 /dev/rdsk/c11t1d6 chmod 660 /dev/rdsk/c11t1d7 chmod 660 /dev/rdsk/c13t1d1 chmod 660 /dev/rdsk/c13t1d2 chmod 660 /dev/rdsk/c13t1d3 chmod 660 /dev/rdsk/c13t1d4 chmod 660 /dev/rdsk/c13t1d5 chmod 660 /dev/rdsk/c13t1d6 chmod 660 /dev/rdsk/c13t1d7 chmod 660 /dev/rdsk/c15t1d5 chmod 660 /dev/rdsk/c15t1d6 chmod 660 /dev/rdsk/c15t1d7 chmod 660 /dev/rdsk/c5t1d5 chmod 660 /dev/rdsk/c5t1d6 chmod 660 /dev/rdsk/c5t1d7 chmod 660 /dev/rdsk/c9t1d1 chmod 660 /dev/rdsk/c9t1d2 chmod 660 /dev/rdsk/c9t1d3 chmod 660 /dev/rdsk/c9t1d4 chmod 660 /dev/rdsk/c9t1d5 chmod 660 /dev/rdsk/c9t1d6 chmod 660 /dev/rdsk/c9t1d7

# 设置OCR使用的raw设备: ##192.168.2.101

chown root:oinstall /dev/rdsk/c4t2d0 chown root:oinstall /dev/rdsk/c6t2d0 chown root:oinstall /dev/rdsk/c9t2d0 chown root:oinstall /dev/rdsk/c11t2d0 chown root:oinstall /dev/rdsk/c13t2d0 chown root:oinstall /dev/rdsk/c15t2d0 chown root:oinstall /dev/rdisk/disk140

chmod 640 /dev/rdsk/c4t2d0 chmod 640 /dev/rdsk/c6t2d0 chmod 640 /dev/rdsk/c9t2d0 chmod 640 /dev/rdsk/c11t2d0 chmod 640 /dev/rdsk/c13t2d0 chmod 640 /dev/rdsk/c15t2d0 chmod 640 /dev/rdisk/disk140

##192.168.2.102

chown root:oinstall /dev/rdsk/c5t2d0 chown root:oinstall /dev/rdsk/c9t2d0 chown root:oinstall /dev/rdsk/c7t2d0 chown root:oinstall /dev/rdsk/c11t2d0 chown root:oinstall /dev/rdsk/c13t2d0 chown root:oinstall /dev/rdsk/c15t2d0

chown root:oinstall /dev/rdisk/disk140

chmod 640 /dev/rdsk/c5t2d0 chmod 640 /dev/rdsk/c9t2d0 chmod 640 /dev/rdsk/c7t2d0 chmod 640 /dev/rdsk/c11t2d0 chmod 640 /dev/rdsk/c13t2d0 chmod 640 /dev/rdsk/c15t2d0

chmod 640 /dev/rdisk/disk140

##192.168.2.103

chown root:oinstall /dev/rdsk/c15t2d0 chown root:oinstall /dev/rdsk/c13t2d0 chown root:oinstall /dev/rdsk/c8t2d0 chown root:oinstall /dev/rdsk/c5t2d0 chown root:oinstall /dev/rdsk/c11t2d0 chown root:oinstall /dev/rdsk/c9t2d0

chown root:oinstall /dev/rdisk/disk140

chmod 640 /dev/rdsk/c15t2d0 chmod 640 /dev/rdsk/c13t2d0 chmod 640 /dev/rdsk/c8t2d0 chmod 640 /dev/rdsk/c5t2d0 chmod 640 /dev/rdsk/c11t2d0 chmod 640 /dev/rdsk/c9t2d0

chmod 640 /dev/rdisk/disk140

##192.168.2.104

chown root:oinstall /dev/rdsk/c13t2d0 chown root:oinstall /dev/rdsk/c15t2d0 chown root:oinstall /dev/rdsk/c10t2d0 chown root:oinstall /dev/rdsk/c5t2d0 chown root:oinstall /dev/rdsk/c11t2d0 chown root:oinstall /dev/rdsk/c9t2d0 chown root:oinstall /dev/rdisk/disk140

chmod 640 /dev/rdsk/c13t2d0 chmod 640 /dev/rdsk/c15t2d0 chmod 640 /dev/rdsk/c10t2d0 chmod 640 /dev/rdsk/c5t2d0 chmod 640 /dev/rdsk/c11t2d0 chmod 640 /dev/rdsk/c9t2d0

chmod 640 /dev/rdisk/disk140

配置节点间的相互信任

# 编辑root用户$HOME目录下的.rhosts EHR01 root EHR01-vip root EHR01-priv root

EHR11 root EHR11-vip root EHR11-priv root

EHR02 root EHR02-vip root EHR02-priv root

EHR12 root EHR12-vip root EHR12-priv root

#编辑oracle用户$HOME目录下的.rhosts EHR01 oracle EHR01-vip oracle EHR01-priv oracle

EHR11 oracle EHR11-vip oracle EHR11-priv oracle

EHR02 oracle EHR02-vip oracle EHR02-priv oracle

EHR12 oracle EHR12-vip oracle EHR12-priv oracle

#测试相互信任是否正常工作,正常应该没有密码提示 #分别以root和oracle用户执行 remsh EHR01 date remsh EHR01-vip date remsh EHR01-priv date remsh EHR11 date remsh EHR11-vip date remsh EHR11-priv date remsh EHR02 date remsh EHR02-vip date remsh EHR02-priv date remsh EHR12 date remsh EHR12-vip date remsh EHR12-priv date 配置授权

#查看/etc/privgroup文件是否存在,如果不存在创建这个文件,并添加如下内容: dba MLOCK RTSCHED RTPRIO

#分配权限给/etc/privgroup setprivgrp -f /etc/privgroup

编辑oracle用户的.profile文件 添加如下内容:

export ORACLE_BASE=/oracle/product

export ORACLE_HOME=$ORACLE_BASE/RAC10g export ORA_CRS_HOME=$ORACLE_BASE/CRS

#根据主机名,依次设置为hrdb1, hrdb2, hrdb3, hrdb4 export ORACLE_SID=hrdb1 export ORACLE_TERM=xterm

export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib:$ORACLE_HOME/rdbms/lib export PATH=$PATH:$ORACLE_HOME/bin:$ORA_CRS_HOME/bin export

CLASSPATH=$ORACLE_HOME/JRE:$ORACLE_HOME/jlib:$ORACLE_HOME/rdbms/jlib:$ORACLE_HOME/network/jlib

以上所有内容在各个rac的node节点执行

安装oracle ClusterWare软件

通过图形化软件连接服务器,执行如下操作: xhost +

export DISPLAY=yourClient_id:0.0

解压缩文件:

unzip 10g_clusterWarexxxx.zip

以oracle用户安装oracle clusterWare:

export ORACLE_HOME=$ORACLE_BASE/CRS

#需要修改安装目录中的/install/oraparam.ini文件的具体参数,使它支持hp-ux 11.31(默认之中11.23)

$ ./runInstaller &

下面是出现的关键页面(引用其他文档的图片,实际安装注意修改): 指定inventory目录,我们设置目录为:/oracle/product/Inventory

指定CRS安装目录: (/oracle/product/CRS)

设置cluster的配置:

主要是把要添加的4个node都加进来。

指定网络接口:

注意检查个接口对应的网络是否正确

设置ocr的磁盘: (/dev/rdisk/disk139)

如果ocr磁盘本身已经做了raid10(用磁盘阵列的正式环境一般都应该做吧),就选用external

redundancy选项,否则选normal必须指定两个盘。

设置voting盘的位置: (选择external redundancy,并输入/dev/rdisk/disk140)

其他的安照提示一步一步做就可以了。

一般情况是,提示root用户执行oraRoot.sh和root.sh后,vipca设置图形没有显示出来,没有关系,确定后,我们手动执行vipca。

如果安装过程没有提供vip的配置,需要以root执行vipca: vipca

安装图形界面的提示一步步做就可以了。

效验安装情况:

#root用户在$ORA_CRS_HOME/bin 目录执行olsnodes命令效验安装情况: olsnodes -n

#查看是否存在相关的crs进程 ps -ef | grep d.bin

#以oracle用户执行crsctl,检查css服务运行情况: $ORA_CRS_HOME/bin/crsctl check css

#以oracle用户执行crs_stat命令,检查crs服务运行情况: crs_stat -t

#输出类似如下:

Name Type Target State Host ------------------------------------------------------------

ora.hp1.gsd application ONLINE ONLINE EHR01

只要保证state列的状态都为ONLINE就可以了。

安装oracle database software 执行:

export ORACLE_HOME=$ORACLE_BASE/RAC10g

#需要修改安装目录中的/install/oraparam.ini文件的具体参数,使它支持hp-ux 11.31(默认之中11.23)

$ ./runInstaller &

接下来的安装基本跟单机安装一样,按照提示,一步步走。 其中注意在选择配置选项的时候,如下:

我们选择 install database software only

如果整个安装过程没有提示或者正确配置net设置的话,可以收工调用网络配置图形界面。 $ netca &

创建数据库 $ dbca &

在出现如下页面,选择具体操作时,我们选择最后一个,首先配置asm实例

Asm实例创建完成后,我们继续下一步操作,再次回到上面的选择操作时,我们选择第一个,创建数据库。

接下来的安装基本和单机安装类似,记得安装提示一步步做就可以了。

Oracle的升级

我们需要把数据库升级到10.2.0.3,下载对应补丁后,解压缩到指定目录.

#需要修改安装目录中的/install/oraparam.ini文件的具体参数,使它支持hp-ux 11.31(默认之中11.23)

tar备份每个节点上的/oracle/product目录;

关闭所有节点的dbconsole、instance、asm、listener、crs,具体如下操作: Oracle用户每个节点执行:emctl stop dbconsole Oracle用户在一个节点执行: srvctl stop database –d hrdb srvctl stop service –d hrdb srvctl stop asm –n EHR01 srvctl stop asm –n EHR02 srvctl stop asm –n EHR11 srvctl stop asm –n EHR12 srvctl stop listener –n EHR01 srvctl stop listener –n EHR02 srvctl stop listener –n EHR11 srvctl stop listener –n EHR12

#root用户执行如下操作:

/oracle/product/CRS/bin/crsctl stop crs

检查每台机器上是否还有oracle进程: ps –eaf|grep ora

设置图形化可用;

进入补丁目录运行:./runInstaller

根据提示进行安装,这个过程中会提示run root.sh脚本;

安装完成后,登陆到其中的一个节点: root执行:

/oracle/product/CRS/bin/crsctl start crs Oracle用户执行:

export ORACLE_SID=+ASM1 sqlplus / as sysdba

startup --注:这个时候遇到oracle的bug,需要用root执行:mv /usr/sbin/lvmchk /usr/sbin/lvmchk_bak_20070910 exit

export ORACLE_SID=hrdb1 sqlplus /nolog conn / as sysdba startup mount

alter system set cluster_database=false scope=spfile; shutdown immediate;

startup upgrade spool patch.log

@?/rdbms/admin/catupgrd.sql spool off;

shutdown immediate startup

@?/rdbms/admin/utlrp.sql

alter system set cluster_database=true scope=spfile;

安装完成后的检查

srvctl config database -d hrdb

#查看listener.ora和tnsnames.ora文件中的内容配置是否合适,尤其是主机的vip和主机固定ip设置

#检查、修改oracle的配置参数

通过以上操作,4个节点的RAC就安装完成了。

备份voting盘

#查看用到的表决盘列表 crsctl query css votedisk #备份

dd if=/dev/上面命令的输出 of=voteDisk.back

oracle Cluster Repository(OCR) 维护(ocrconfig)

ocr包含10g RAC和CRS的关于cluster和database的配置信息;ocr是被oracle自动备份的; 也可以通过:ocrconfig -export 命令进行备份

#restoring(还原)OCR

1.停止 oracle cluster registry(需要在所有节点运行) init.crs stop

2.查找最近的备份文件信息

ocrconfig –showbackup

3.应用找到的备份文件进行还原 Ocrconfig –restore fileName

4.启动CRS(需要在所有节点运行) init.crs start

附录:

遇到的问题1:

在创建asm实例的时候遇到vip出错,提示vip不可用。

运行crs_stat –t查看,果然ehr01的vip飘到ehr02的主机上,ehr02的主机vip offline. 重新启动crs进程: crs_stop –all crs_start –all

发现如下错误: CRS-0223: Resource 'ora.lo-ehr02.ASM1.asm' has placement error 同样ehr01的vip飘到ehr02的主机上,ehr02的主机vip offline.

检查网络设置,发现ehr01的/etc/rc.config.d/netconf中的配置有问题,注释掉错误的设置,并修改ROUTE_COUNT[0]=0为ROUTE_COUNT[0]=1

重新启动crs: crs_stop –all crs_start –all 检查状态: crs_stat –t

这次一切正常。

继续创建asm实例,选中多个指定的disk后,发现只能mount两个节点,其余两个不能mount。查看不能mount的节点的asm日志,发现如下错误: SQL> ALTER DISKGROUP ALL MOUNT Mon Sep 10 16:29:17 2007

NOTE: cache registered group DATA number=1 incarn=0x5864b471 Mon Sep 10 16:29:18 2007

ERROR: no PST quorum in group 1: required 2, found 0 Mon Sep 10 16:29:18 2007

NOTE: cache dismounting group 1/0x5864B471 (DATA) NOTE: dbwr not being msg'd to dismount ERROR: diskgroup DATA was not mounted Mon Sep 10 16:32:20 2007

经过检查,安装过程没有错误,最后怀疑是指定磁盘的4个节点的磁盘通道配置不一直。为验证是否是这个原因,找了一块明确磁盘通道配置没有问题的磁盘来创建asm,结果4个节点都可以mount上,没有问题。从而确认上面的怀疑是正确的。找硬件厂协商。今天到此为止。 第二天,硬件工程师也没有修改,原因是要耗时3个小时才能改完。不过有一个替代的方案。就是把所有相关的磁盘都加到asm中。

继续测试,把asm_diskstring修改为:

asm_diskstring= /dev/rdisk/disk8*,/dev/rdisk/disk7,*/dev/rdisk/disk6* 总共26块磁盘做一个diskgroup.

继续创建asm,这次顺利的创建了asm实例。

创建asm过程用到了如下操作:

dd if=/dev/zero of=/dev/rdisk/disk83 bs=8192 count=16384 dd if=/dev/zero of=/dev/rdisk/disk84 bs=8192 count=16384 dd if=/dev/zero of=/dev/rdisk/disk85 bs=8192 count=16384 因为,第一次创建asm的时候用到过,再次选择这些磁盘的时候,这些磁盘的状态是member,而不是candidates,导致无法利用,所以需要上面的操作,删除标记的数据

遇到的问题2

升级数据库程序运行完成后,启动asm时,无法启动,如下错误: SQL> alter diskgroup data mount; alter diskgroup data mount *

ERROR at line 1:

ORA-15032: not all alterations performed

ORA-15063: ASM discovered an insufficient number of disks for diskgroup \

经metalink查找,发现这个问题是oracle的bug,修改方法是更改/usr/sbin/lvmchk文件名为其它名字,更改后重新启动asm实例,一切正常。

遇到的问题3

rac运行一段时间后,客户数其中的一台node无法启动数据库,crs_stat也无法运行; 查看crs的log发现存在很多的如下提示:

[ CSSCLNT][3086911168]clsssInitNative: connect failed, rc 9

最后确认这个问题的原因是表决盘、ocr、和asm使用的磁盘的owner和权限被改了,修改到正确的owner和权限后,实例可以正常启动。

停止数据库和ClusterWare的方法 #oracle用户执行:

Oracle用户在一个节点执行:

srvctl stop database -d fidb srvctl stop asm -n ncfi01 srvctl stop asm -n ncfi02 srvctl stop asm -n ncfi11 srvctl stop asm -n ncfi12 srvctl stop listener -n ncfi01 srvctl stop listener -n ncfi02 srvctl stop listener -n ncfi11 srvctl stop listener -n ncfi12

#root用户在每个节点分别执行: srvctl stop nodeapps –n nodeName /oracle/product/CRS/bin/crsctl stop crs

手动启动oracle数据库

(在hp-ux 11.31上默认数据库随着系统自动启动,因为启动文件加到了/sbin/init.d/目录下) #root用户在每个节点分别执行: /oracle/product/CRS/bin/crsctl start crs

查看crs的版本信息:

#lists the version of CRS software installed

crsctl query crs softwareversion [] #lists the CRS software operating version crsctl query crs activeversion

删除oracle clusterWare的方法 #root用户执行:

/oracle/product/CRS/install/rootdelete.sh /oracle/product/CRS/install/rootdeinstall.sh #Stop the Nodeapps on all nodes: srvctl stop nodeapps -n #删除自启动文件 Sun: rm /etc/init.d/init.cssd rm /etc/init.d/init.crs rm /etc/init.d/init.crsd rm /etc/init.d/init.evmd rm /etc/rc3.d/K96init.crs rm /etc/rc3.d/S96init.crs

rm -Rf /var/opt/oracle/scls_scr rm -Rf /var/opt/oracle/oprocd

rm /etc/inittab.crs cp /etc/inittab.orig /etc/inittab

Linux:

rm /etc/oracle/* rm -f /etc/init.d/init.cssd rm -f /etc/init.d/init.crs rm -f /etc/init.d/init.crsd rm -f /etc/init.d/init.evmd rm -f /etc/rc2.d/K96init.crs rm -f /etc/rc2.d/S96init.crs rm -f /etc/rc3.d/K96init.crs rm -f /etc/rc3.d/S96init.crs rm -f /etc/rc5.d/K96init.crs rm -f /etc/rc5.d/S96init.crs rm -Rf /etc/oracle/scls_scr rm -f /etc/inittab.crs cp /etc/inittab.orig /etc/inittab

HP-UX: rm /sbin/init.d/init.cssd rm /sbin/init.d/init.crs rm /sbin/init.d/init.crsd rm /sbin/init.d/init.evmd

rm /sbin/rc2.d/K960init.crs rm /sbin/rc2.d/K001init.crs rm /sbin/rc3.d/K960init.crs rm /sbin/rc3.d/S960init.crs

rm -Rf /var/opt/oracle/scls_scr rm -Rf /var/opt/oracle/oprocd rm /etc/inittab.crs cp /etc/inittab.orig /etc/inittab

HP Tru64: rm /sbin/init.d/init.cssd rm /sbin/init.d/init.crs rm /sbin/init.d/init.crsd rm /sbin/init.d/init.evmd rm /sbin/rc3.d/K96init.crs rm /sbin/rc3.d/S96init.crs

rm -Rf /var/opt/oracle/scls_scr rm -Rf /var/opt/oracle/oprocd rm /etc/inittab.crs cp /etc/inittab.orig /etc/inittab

IBM AIX: rm /etc/init.cssd rm /etc/init.crs rm /etc/init.crsd rm /etc/init.evmd rm /etc/rc.d/rc2.d/K96init.crs rm /etc/rc.d/rc2.d/S96init.crs rm -Rf /etc/oracle/scls_scr rm -Rf /etc/oracle/oprocd rm /etc/inittab.crs cp /etc/inittab.orig /etc/inittab #kill crs相关进程 ps -ef | grep crs kill ps -ef | grep evm kill ps -ef | grep css kill #删除.oracle文件夹 rm -f /var/tmp/.oracle rm -f /tmp/.oracle #删除 ocr.loc

Usually the ocr.loc can be found at /etc/oracle

#oracle用户在图形化窗口下执行runInstall.sh启动OUI,删除安装的oracle组件: runInstall.sh

#Clean out the OCR and Voting Files with dd commands. Example:

dd if=/dev/zero of=/dev/rdsk/V1064_vote_01_20m.dbf bs=8192 count=2560 dd if=/dev/zero of=/dev/rdsk/ocrV1064_100m.ora bs=8192 count=12800 #查看/var/opt/oracle是否存在,如果存在就删除oracle目录 #查看$ORACLE_CRS_HOME,如果存在就删除

#查看oracle的Inventory目录,如果存在也删除目录

#查看/etc/inittab文件的最后是否添加了init.evmd ,init.cssd,init.crsd相关的命令,有也删除这些行

#查看/etc/oratab文件是否存在,有也删除

#查看/usr/local/bin文件是否存在,如果存在,删除此目录中的oracle拥有的所以文件

AIX-HA-ORA-WAS双机互备

前言

? 本文是根据实际项目环境总结得出,有些细节可能有所忽略,意在帮助了解整过实

施过程。

? Oracle与WAS实现双机互备。〔A机数据库,B机应用〕 ? Oracle版本为9208。[10g更简单一点,不用升级。] ? Was版本为6107,NC版本5.011 ? WAS在两台机器上做垂直集群。 ? AIX版本为5304,HA版本5.3 ? 小机型号P570,4C16G

? 存储为DS4300,RAID5,hdisk2,裸设备。

? 操作系统已经由IBM工程师安装完毕,HACMP也安装了,但没有配置。 ? 关键词:AIX5.3、oracle9i、WAS6、NC5、HACMP5.3、裸设备、双机互备。 ? 阅读对象:用友实施顾问,有基本的AIX和oracle基础。

系统要求

? ? ? ?

两台机器必须有中文字符集Zh_CN,Zh_CN.gb18030 两台机器 /文件系统不少于2G 两台机器 /tmp文件系统不少于2G 两台机器 /swap文件系统不少于4G,本环境是16G内存,所以swap也设置成16G。如果是8G或者8G以下内存,swap应该是内存的两倍大小。 ? 检查当前系统参数及调整

# lsattr -El sys0 参数 建议值 maxuproc 500 maxpout 33 minpout 16

具体参数修改方法以 root身份使用“smitty chgsys”进行修改 ? 检查当前系统限制及调整

# ulimit –a 参数 建议值 影响 fsize -1 文件大小,主要针对数据库也在当前环境下 data -1 文件大小,主要针对数据库也在当前环境下 minpout 6000 同时打开最大文件数,具体可以调更大

以root身份对“/etc/security/limits”文件中的参数修改调整,需要重新启动系统才能生效。 ? 启动异步IO

开启异步IO可以提高读写效率,具体设置方法通过“smitty aio”调整。

工作思路

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?

停止HA,smit clstop,两台机器都停止。 文件系统和存储规划

在A机器上安装WAS,并做好垂直集群。部署NC。 启动A机器上的WAS,登录界面能看到就行。 停止A机器上的WAS。

在B机器上安装WAS,并做好垂直集群。部署NC。 启动B机器上的WAS,登录界面能看到就行。 停止B机器上的WAS。

在A机器上安装数据库管理软件。 在A机器上建数据库,建在裸设备。 在A机器上升级数据库到9208

关闭A机器上的数据库和监听。将A机器上的数据库管理目录tar包ftp到B机,解压。

检查数据库能否在两台机器上启动情况。检查正确后,关闭数据库。 规划HA的资源和资源组 配置HA

启动HA,检查A机数据库是否启动,检查B机WAS是否启动。 HA切换测试。

文件系统和存储规划

文件系统挂载点 /ncapp /wassoft /oracle oradata

用途

安装was和NC Was的安装软件 Oracle管理软件 数据库VG

大小 15G 10G 15G

注意事项

Rootvg、Jfs2 Rootvg、Jfs2 Rootvg、Jfs2

不建文件系统,裸设备 在A机上建就行,等数据库安装完成后,import vg到B机。不要建并发卷组。PPsize=128M

注:AB两机相同。

WAS和NC安装

? ? ? ? ?

安装was6101,创建DM和一个受管节点。 关闭Dmgr和Node

安装was的update软件,并升级was到6107 安装Httpserver

安装Httpserver的plugin

? ? ? ? ? ? ?

启动Dmgr和Node

拷贝plugin/bin下的configurewebserver1.sh到dmgr/bin下执行。

在dmgr的web管理界面下删除默认的应用程序和默认的应用服务器。 创建集群。Master,ncMem01,ncMem02

安装NC和部署NC,注意was的profile文件选择Dmgr。 在wasSysConfig下server栏下要将master设置为主服务器。

EJB部署完毕后要在管理控制台>企业应用程序>NC50>管理模块下: 集群和服务器全选,模块全选,点击应用 集群和服务器全选,单选NC_WEB,点击确定

? 在WEB服务器下生成和传播插件

? 设置master,ncMem01,ncMem02的JVM参数。

? 在/ncapp下编写两个启动和关闭文件。此两个文件会被HA所用。文件内容详见本

文的附录。 ? 执行关闭文件。 ? 执行启动文件。 ? 登录NC。

? 成功后,执行关闭文件,停止整个应用。 ? 在B机上同样安装。

? 安装完成后停止整个应用。

? 具体安装步骤参考nczx或者was论坛下的安装录像和安装说明。

数据库安装

? ? ? ? ?

在两台机器上分别创建oracle用户和dba,hagsuer用户组,注意id号相同。 本文中的oracle的id是500,dba的id是501,hagsuer的id为502 Orace用户的目录在/oracle

Oracle用户的primary group为dba,group set为dba,hagsuser 建orcle用户顺便改下参数 soft file size –1 soft data segment –1 soft stack size -1

? 编辑oracle的.profile文件,可以参考附录的.profile文件。 ? 给/oracle目录授权拥有者

# chown –R oracle:dba /orale # su – oracle

$ chmod –R 777 /oracle $ exit ? 给oracle安装软件赋予拥有者和执行读写权限

# chown –R oracle:dba /oradisk # su – oracle

$ chmod –R 777 /oradisk $ exit ? 用root用户执行安装盘下的rootpre.sh

? 用orale用户到安装目录下

# su – oracle

$ cd /oradisk/Disk1

$ export DISPLAY=本客户端IP:0.0 〔可能是1.0,具体看xmanager的左上端。〕 $ xclock [如果能看见时钟就可以启动图形界面] $ ./runInstaller ? 安装步骤了,注意不要建库就行。

? oracle 欢迎界面下,选择Adwanced Installation ? 选择安装类型为自定义[custom] ? 选择安装的组件

? 设置操作系统组,都选dba

? 询问是否创建数据库,选择不创建,稍后单独创建 ? summary报告 ? 开始安装

? 到快要结束的时候提示执行用root用户执行root.sh ? 安装结束

? Oracle用户执行netca 创建数据库的监听。

? 用root用户创建裸设备,可以用附录的脚本创建。 ? 裸设备付给oracle权限

? 裸设备位置:/dev/下

? rora开头或者rnnc开头的就是我们创建的裸设备。

? Oracle用户执行dbca,创建数据库。创建的步骤和windows下差不多。注意的事

项有:

? 字符集选择

? 指定control file,db file,redo log文件时选择创建好的裸设备。 ? 升级orcle到9208

? 关闭oracle和监听

? 用oracle用户到补丁盘下执行./runInstaller安装 ? 安装结束 ? 执行脚本

SQL> STARTUP MIGRATE SQL> @/rdbms/admin/catpatch.sql SQL> shutdown immediate SQL> startup

SQL> @/rdbms/admin/utlrp.sql

? 检查A机上数据库启动是否成功。

? 修改oracle参数

? 关闭数据库和监听。

? 将/oracle下的所有文件tar个包。

$ cd /oracle

$ tar –cvf oracle.tar *

? ftp到B机器上的/oracle目录下,释放。tar –xvf *.tar ? import vg 过程

A机过程: # cd /

# varyoffvg oradata B机过程 # smit

选择存储管理->逻辑卷管理->卷组管理->import vg ->填写oradata和hdisk2 # varyonvg oradata ? 启动B机数据库,看是否能启动,如果可以,安装结束。

HACMP配置

在配置HA之前要能保证手工切换没有问题。在切换没有问题的前提下,我们就可以进行HA的配置了。

关闭两台机器上关于数据库和NC的所有应用。 理解HA中的概念和工作方式很重要。 资源: 资源包括应用程序,虚拟IP,卷组等等 资源组:

资源组就是将资源组织成一个整体。资源组中的节点的顺序就决定了谁是主谁是备。一旦主的出现问题,那么备机就要接管这个资源组的资源。

在本项目中要实现互备,那么我们怎么定义我们的资源呢?

首先我们有两个应用,一个是NC,一个是数据库。那么我们需要定义两个应用程序,并规划好应用程序的启停脚本。 其次我们有两个虚拟IP资源,因为一个应用需要一个。 最后我们需要两个资源组,一个NC,一个数据库的。 配置如下:

Cluster Name: erpcluster

Cluster Connection Authentication Mode: Standard Cluster Message Authentication Mode: None Cluster Message Encryption: None

Use Persistent Labels for Communication: No There are 2 node(s) and 1 network(s) defined

NODE ibmerpa: Network net_ether_01 ibmerpa_svc 128.128.1.14 ibmerpa_boot 128.128.1.13

ibmerpa_standby 192.168.200.2

NODE ibmerpb: Network net_ether_01 ibmerpb_svc 128.128.1.18 ibmerpb_boot 128.128.1.19 ibmerpb_standby 192.168.200.1

Resource Group orarg Startup Policy Online On Home Node Only Fallover Policy Fallover To Next Priority Node In The List Fallback Policy Fallback To Higher Priority Node In The List Participating Nodes ibmerpa ibmerpb Service IP Label ibmerpa_svc Volume group oradata

Resource Group ncrg Startup Policy Online On Home Node Only Fallover Policy Fallover To Next Priority Node In The List Fallback Policy Fallback To Higher Priority Node In The List Participating Nodes ibmerpb ibmerpa Service IP Label ibmerpb_svc

附录

/etc/hosts: 127.0.0.1 loopback localhost ibmerpb 128.128.1.13 ibmerpa_boot ibmerpa 128.128.1.14 ibmerpa_svc ibmerpa 192.168.200.2 ibmerpa_standby ibmerpa 128.128.1.19 ibmerpb_boot ibmerpb 128.128.1.18 ibmerpb_svc ibmerpb 192.168.200.1 ibmerpb_standby ibmerpb Oracle启动停止脚本: /usr/hascript/dbstart.sh:[给HA用的,root用户有权限] su - oracle -c \ /usr/hascipt/dbstop.sh:[给HA用的,root用户有权限] su - oracle -c \ /oracle/hascript/dbstartup.sh: [给oracle用的,oracle用户有权限] lsnrctl start sqlplus /nolog <

/oracle/hascript/dbstop.sh: [给oracle用的,oracle用户有权限 lsnrctl stop sqlplus /nolog <

export LANG=Zh_CN

/ncapp/IBM/WebSphere/AppServer/profiles/dmgr/bin/startManager.sh /ncapp/IBM/WebSphere/AppServer/profiles/AppSrv01/bin/startNode.sh

/ncapp/IBM/WebSphere/AppServer/profiles/AppSrv01/bin/startServer.sh master /ncapp/IBM/WebSphere/AppServer/profiles/AppSrv01/bin/startServer.sh ncMem01 /ncapp/IBM/WebSphere/AppServer/profiles/AppSrv01/bin/startServer.sh ncMem02 /ncapp/IBM/HTTPServer/bin/apachectl start /ncstop.sh

/ncapp/IBM/HTTPServer/bin/apachectl stop

/ncapp/IBM/WebSphere/AppServer/profiles/AppSrv01/bin/stopServer.sh ncMem02 /ncapp/IBM/WebSphere/AppServer/profiles/AppSrv01/bin/stopServer.sh ncMem01 /ncapp/IBM/WebSphere/AppServer/profiles/AppSrv01/bin/stopServer.sh master /ncapp/IBM/WebSphere/AppServer/profiles/AppSrv01/bin/stopNode.sh /ncapp/IBM/WebSphere/AppServer/profiles/dmgr/bin/stopManager.sh Oracle的.profile文件内容

PATH=/usr/bin:/etc:/usr/sbin:/usr/ucb:$HOME/bin:/usr/bin/X11:/sbin:.

export PATH

if [ -s \ # This is at Shell startup. In normal then echo \ # operation, the Shell checks fi # periodically. export umask=022

export ORACLE_BASE=/oracle

export ORACLE_HOME=$ORACLE_BASE/app/9.2.0 export ORACLE_SID=ncerp

export ORA_NLS33=$ORACLE_HOME/ocommon/nls/admin/data export ORACLE_TERM=vt100

export NLS_LANG=american_america.zhs16gbk export

LD_LIBRARY_PATH=$ORACLE_HOME/lib32:$ORACLE_HOME/lib:$ORACLE_HOME/network/lib

export SHLIB_PATH=$ORACLE_HOME/lib:/usr/lib

export PATH=$ORACLE_HOME/bin:.:$PATH:/usr/local/bin

建裸设备脚本[10g有所不同]

mklv -y'ora_system' -w'n' -s'n' -r'n' -t'jfs2' oradata 4 hdisk2 mklv -y'ora_drsys01' -w'n' -s'n' -r'n' -t'jfs2' oradata 4 hdisk2 mklv -y'ora_odm01' -w'n' -s'n' -r'n' -t'jfs2' oradata 4 hdisk2 mklv -y'ora_cwmlite01' -w'n' -s'n' -r'n' -t'jfs2' oradata 4 hdisk2 mklv -y'ora_examp01' -w'n' -s'n' -r'n' -t'jfs2' oradata 4 hdisk2 mklv -y'ora_index01' -w'n' -s'n' -r'n' -t'jfs2' oradata 4 hdisk2 mklv -y'ora_xdb01' -w'n' -s'n' -r'n' -t'jfs2' oradata 8 hdisk2 mklv -y'ora_tools01' -w'n' -s'n' -r'n' -t'jfs2' oradata 4 hdisk2 mklv -y'ora_undo' -w'n' -s'n' -r'n' -t'jfs2' oradata 16 hdisk2 mklv -y'ora_tmp' -w'n' -s'n' -r'n' -t'jfs2' oradata 16 hdisk2 mklv -y'ora_users' -w'n' -s'n' -r'n' -t'jfs2' oradata 8 hdisk2 mklv -y'ora_redo11' -w'n' -s'n' -r'n' -t'jfs2' oradata 1 hdisk2 mklv -y'ora_redo21' -w'n' -s'n' -r'n' -t'jfs2' oradata 1 hdisk2 mklv -y'ora_redo31' -w'n' -s'n' -r'n' -t'jfs2' oradata 1 hdisk2 mklv -y'ora_ctl1' -w'n' -s'n' -r'n' -t'jfs2' oradata 1 hdisk2 mklv -y'ora_ctl2' -w'n' -s'n' -r'n' -t'jfs2' oradata 1 hdisk2 mklv -y'ora_ctl3' -w'n' -s'n' -r'n' -t'jfs2' oradata 1 hdisk2

mklv -y'nnc_data0101' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_data0102' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_data0103' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_data0104' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_data0105' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_data0106' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_data0107' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_data0201' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_data0202' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_data0301' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_data0302' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_data0303' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_data0304' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_data0305' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_data0306' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_index0101' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_index0102' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_index0103' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_index0104' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_index0105' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_index0106' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_index0201' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_index0202' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_index0301' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_index0302' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_index0303' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_index0304' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2

mklv -y'nnc_index0305' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_index0306' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_iufo01' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2 mklv -y'nnc_iufo02' -w'n' -s'n' -r'n' -t'jfs2' oradata 20 hdisk2

本文来源:https://www.bwwdw.com/article/92hw.html

Top