2、IBM磁阵安装配置手册V1.0

更新时间:2024-01-30 22:18:01 阅读量: 教育文库 文档下载

说明:文章内容仅供预览,部分内容可能不全。下载后的文档,内容与下面显示的完全一致。下载之前请确认下面内容是否您想要的,是否完整无缺。

IBM磁阵安装配置手册

中兴通讯股份有限公司

目 录

IBM磁阵安装配置手册................................................................................................... 1 修改记录: ...................................................................................................................... 2 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 1.10 1.11

安装准备............................................................................................................ 3 磁盘规划............................................................................................................ 3 连接磁盘阵列..................................................................................................... 3 使用存储管理软件系统....................................................................................... 5 创建Array和LUN ........................................................................................... 12 创建LUN......................................................................................................... 15 创建hotspare .................................................................................................. 20 Lun与主机映射 ............................................................................................... 23 创建磁阵分区................................................................................................... 31 参数调整 ...................................................................................................... 33 磁盘分区规划建议 ........................................................................................ 33

修改记录:

修改时间 2011-4-18

修改内容 新建 修改人 程凯 备注 V1.0 1.1 安装准备

确认磁阵配置软件是否齐备,它们是:

1) IBM存储管理软件ibm_sw_DSxK_10.70.xx.08_windows_intl386

1.2 磁盘规划

本次磁阵配置为16块硬盘的DS5020,一块热备盘,采用RAID5建两个Array。一个array包含7个盘,一个array包含8个盘。第一个array上建两个lun,分别是lun1和lun2。在主机上分别对应为hdisk2、hdisk3。除第一个array之外的其他的array,每个array做一个lun。

分别将lun1和lun2分配到控制器A、B,以分担负荷。 LUN名LUN所在称(在大小RAID操作系(GB) 组 (在Storage 统上) Manager上) Omc Data1 Data2 ? LUN名称 RAID组类型 所属VG 所属lv Mount点 磁盘控制器 hdisk2 100GB Array1 RAID5 Omcvg Omclv /home/omc A Hdisk3 其余 Array1 RAID5 Datavg Data1lv /datafile/u01 B Hdisk4 ArrayArray2 RAID5 datavg Data2lv /datafile/u02 A 全部 ? ? ? ? datavg ? ? B 注:参照上表及附录,在做raid5的时候尽量以(7+1)为标准靠近,可参照附录的标准。

1.3 连接磁盘阵列

DS5020后板示意图其中Ethernet ports (以太网口)用于跟PC连接,配置磁盘

Serial port 串口

Ethernet ports 以太网口

Dual-port drive channel 扩展柜接口 Fibre Channel host channels 主机接口

HBA1 HBA2

DS5020有两个控制器:ControllerA和ControllerB。每个控制器有一个网口,ControllerA的网口默认IP地址为192.168.128.101/255.255.255.0,ControllerB的网口默认IP地址为192.168.128.102/255.255.255.0。

控制台需要配置和DS5020控制器同一网段的IP地址,用来连接DS502, 此网段要求是一个独立的网络,不要加入其它的机器,以免IP地址变更。

1.4 使用存储管理软件系统

在DS5000的随机光盘里面带有Storage Manager安装光盘,可以在主流操作系统如aix/hp-ux/solaris/linux/windows上安装。

在PC机上选择“开始 > 所有程序 > Storage Manager 10 Client > Storage Manager 10 Client”。

Storage Manager启动后,出现如图所示的窗口。 Storage Manager启动

图中的提示框表明Storage Manager尚未连接任何磁盘阵列,需要Storage Manager自动连接或用户手工连接磁盘阵列。

选择“Yes”将由Storage Manager自动连接磁盘阵列。 选择“No”将由用户手工连接磁盘阵列。 这里建议选择“No”。

选择“No”,如图点击鼠标右键,选择Add Storage Subsystem

系统弹出“Add Storage Subsystem”对话框,如图所示。

图 3-12

在“Fist Controller”文本框中输入Controller A的IP地址192.168.128.101,在“Second Controller”中输入ControllerB的IP地址192.168.128.102。 单击“Add”。

Storage Manager开始连接磁盘阵列,如图所示。 Connecting

图3-13

注意,必须保证192.168.128.101、192.168.102两IP地址与PC正常通讯。

连接成功后,系统弹出“Storage Subsystem Added”,询问用户是否需要连接另一个磁盘阵列,如0所示。 Storage Subsystem Added

这里我们不需要连接另一个磁盘阵列。 单击“No”。

出现如下图所示的窗口。可以看到刚连接成功的磁盘阵列。 Storage Manager

认到存储为Storage Subsystem Unamed,修改存储的名字,操作如下,右击鼠标,点击rename

输入新的名字,点击ok

出现如下界面。点击Yes

出现如下界面,双击DS4700A

如果出现如下的界面,你可以选择设置密码,如果不设置,就选No。

1.5 创建Array和LUN

选择Total Unconfigured Capacity,点右键,选择Create Array功能项,进入下图

输入Array name,选择Manual,进入下面的

选择RAID

level 为RAID5,将要选择的磁盘Add到select drives(slot表示磁盘所在槽位)进入如下界面

点击Calculate Capacity,点击finsh,Array创建成功。系统会提示你是否创建LUN,你可以选择YES,进入创建LUN的创建。

1.6 创建LUN

鼠标单击创建好的Array Raid5-2下面的Free Capacity,点击Create Logical Drive,进入如下图示:

点击下一步,进入如下图示:

示例创建的是LUN名为omc1,大小为700GB,然后选择Customize settings,点击Next,进入如下图示:

选择Logical Drive I/O characteristics type 为Database,Preferred controller ownership为SlotA(下一个lun选SlotB,以进行负荷分担;注意配置端必须与被选择的Slot连通,否则会失败)点击Next,进入如下图示:

选择Host type为AIX,再选择Map later using the mappings view。点击Next

上图提示你是否创建另外一个lun,需要点击Yes,不需要点击No,创建方法与之前一样。暂时我们就创建一个示列,我们在此选择No

点击OK,此时可以看到LUN omc的状态为次状态为系统正在格式化,格式化完成后状态为:

如要创建多个LUN, 选中Free Capacity,单击右键,选中Create Logical Drive功能项,增加新的LUN。增加LUN操作跟上述步骤一样。

1.7 创建hotspare

在storage manager 软件中点击Phyical,点击一块未使用的空盘,鼠标右键- ->hot spare coverage,见下图:

选择Manually assign individual drives.点击ok完成。表示hotspare硬盘,表

示已使用硬盘,表示已未使用硬盘。 查看hotspare是否起作用,操作如下: Drive –>Hot Spare Coverage

选择View/change current hot spare coverage

看到array protected:yes 说明此raid收hot spare保护。

1.8 Lun与主机映射

1. 在主机上输入cfgmgr –v命令,回车,命令执行完后,再次运行到storage manager软件中

2. 查看主机上的光纤卡的WWN,命令如下:

lsdev -Cc adapter | grep fcs(确认机器配置了几块光纤卡)

lscfg -vl fcs0 (查看fcs0光纤卡的wwn和位置) [root@p550B /] # lscfg -vl fcs0

fcs0 U78A0.001.DNWHXWN-P1-C4-T1 FC Adapter

Part Number.................10N8620 Serial Number...............1C948086F3 Manufacturer................001C EC Level....................D76625 Customer Card ID Number.....5759

FRU Number.................. 10N8620

Device Specific.(ZM)........3

Network Address.............10000000C9955646

(P1表示主机,C4第四个IO插槽,T1表示上面的一个光纤口)10000000C9955646 (wwn)

用Storage manage 软件登录到存储上,点节mapping,右键点击Default group -->define -->host,填写host 名为p550B,点击Next

进入如下界面,点击Refresh,可以看到wwn,选择一个对应主机的wwn,alias的名字为p550B_fcs0,点击add,另外一块卡同样方法操作,名字为p550B_fcs1

点击Next,进入如下图示:

选择host type为AIX。点击Next

选择No,至此就完成了一台主机的映射。另外一台主机同样操作。

3. 如果需要两台主机共享一台DS5020上的LUN,我们再创建一个Host Group,之后,讲p550A和p550B直接添加到此Host Group。之后的lun映射对象选择创建的Host Group。 步骤如下:

右键点击Default group -->define -->host group,填写host group名为power group ,将所需要添加到powergroup中的host都 add到powergroup,

点击ok,host group 创建完成。

4. 将lun映射到主机

选择 Mapping?undefined mappings ,选择omc1,右击选择defined additional mapping

选择powergroup,lun 建议从2开始,选定omc1,点击add。 5. 在主机端认出lun。

原来主机的磁盘如下:

[root@minos1 /home]#lspv

hdisk0 00c4e3f628224717 rootvg active

hdisk1 00c4e3f628d50a26 rootvg active

现在再在主机上输入cfgmgr –v命令后,再用lspv命令看到如下结果

[root@minos1 /] # lspv

hdisk0 00c4e3f628224717 rootvg active

hdisk1 00c4e3f628d50a26 rootvg active

hdisk2 none None

? 初始化磁盘

命令chdev -l pv_name -a pv=yes,初始化后,会显示一串序号,如

[root@minos1 /home]#chdev -l hdisk2 -a pv=yes hdisk2 changed

[root@minos1 /home]#lspv

hdisk0 00c4e3f628224717 rootvg active

hdisk1 00c4e3f628d50a26 rootvg active

hdisk2 00c4e3f631763eb5 None [root@minos1 /home]#chdev -l hdisk3 -a pv=yes hdisk3 changed

[root@minos1 /home]#chdev -l hdisk4 -a pv=yes hdisk4 changed

1.9 创建磁阵分区

?

建立omcVG

#mkvg -S -y omcvg -s 128 hdisk2

-y 制定vg名字

-s 128 指定物理分区大小PP SIZE=128MB

-f 强制挂接(如果VG之前已经创建,可选用该参数)

?

创建omcLV ,

【重要说明】

注意根据规划(附录)调整创建lv大小的值。LV容量=PP个数*PP SIZE #lsvg omcvg命令输出中有PP的大小和VG中free PP的个数

VG STATE: active PP SIZE: 128 megabyte(s)

注意:创建lv时不能将vg中的free pp全部用完,需要留下10个左右用于系统做其他操作

#/usr/sbin/mklv -y omclv -t jfs2 -e x -x 20000 omcvg (PP个数) hdisk2

-y omclv是lv的名称 -t jfs2 是lv的类型

-e x表示一个将lv最大化分布到hdisk2上 -x 20000表示一个lv最大含pp的个数 例如:

#/usr/sbin/mklv -y omclv -t jfs2 -e x -x 20000 omcvg 750 hdisk2 这个就表示创建出来的omclv目前的容量是750*128M=96G

这个omclv的文件系统最大可扩大到20000*128M=2.5T,当然这个只是一个上限值,实际根据情况不会超过vg的大小限制。

? 创建jfs2的文件系统 # mkdir /home/omc

#crfs -v jfs2 -d omclv -m /home/omc -A yes # mount /home/omc

用df 命令来查看,文件系统是否已经挂载。 root@p550B /] # df –g

? 建立dataVG

#mkvg -S -y datavg -s 128 hdisk3 hdisk4

-y 制定vg名字

-s 128 指定物理分区大小PP SIZE=128MB

-f 强制挂接(如果VG之前已经创建,可选用该参数) 往VG加磁盘

如需要另外再加盘hdisk5加入datavg

# extendvg datavg hdisk5 ? 创建data1LV ,

【重要说明】

注意根据规划(附录)调整创建lv大小的值。LV容量=PP个数*PP SIZE #lsvg datavg命令输出中有PP的大小和free PP的个数

VG STATE: active PP SIZE: 128 megabyte(s)

注意:创建lv时不能将vg中的free pp全部用完,需要留下10个左右用于系统做其他操作

#/usr/sbin/mklv -y data1lv -t jfs2 -e x -x 20000 datavg (PP个数) hdisk3 hdisk4

-y data1lv是lv的名称 -t jfs2 是lv的类型

-e x表示一个将lv最大化分布到hdisk3和hdisk4上 -x 20000表示一个lv最大含pp的个数 例如:

#/usr/sbin/mklv -y data1lv -t jfs2 -e x -x 20000 datavg 4000 hdisk3 hdisk4

这个就表示创建出来的data1lv目前的容量是4000*128M=500G 这个data1lv的文件系统最大可扩大到20000*128M=2.5T

? 创建jfs2的文件系统 #mkdir /datafile

#mkdir /datafile/u01

# crfs -v jfs2 -d data1lv -m /datafile/u01 -A yes # mount /datafile/u01

用df 命令来查看,文件系统是否已经挂载。

root@p550B /] # df –g

修改文件系统属性

root@p550B /] # chown –R oracle:dba /datafile

1.10 参数调整

系统参数:

chdev -l sys0 -a iostat=true -P chdev -l sys0 -a maxuproc=3000 -P

队列设置:

默认hdiskX上队列长度为10,fcsX上长度为200;对于随机访问性应用,一般建议适当增大:

chdev -l hdiskX -a queue_depth=16 -P

chdev -l fcsX -a num_cmd_elems=256 -P 其中X为磁盘或光纤卡的逻辑序号。

lsdev -Cc adapter | grep fcs查看有几块光纤卡

1.11 磁盘分区规划建议

主机磁盘规划建议:

磁盘数目 磁盘 / 1×146G (说明:做mirror后一块146G磁盘的容量,实际是两块146G物理磁盘) 磁盘1 /usr /var /tmp /opt /home /oracle 文件系统挂接点 30 10 10 10 5 20(放置ZXM-INOS版本及其升级版本) 20(安装oracle) 大小(GB)

磁阵分区规划建议

磁盘数目 VG Omcvg Omclv DS5020光纤磁阵 (全部磁盘做RAID5) Datavg Data1lv-data6lv 2 /datafile/ 剩余全部空间。在/datafile目录下创建u01~u06文件夹,存放oracle实例和数据文件 LV 挂载 1 /home/omc 大小(GB)(LV) 100G(安装网管程序)

UMTS外场磁阵上的磁盘配置参考如下:

硬盘数 热备盘 虚拟盘数量 vg数量 5块硬盘 7块硬盘 8块硬盘 9块硬盘 0块热备 1块热备 1块热备 2块热备 1 * raid5 3 100G 1 * raid5 3 100G 1 * raid5 3 100G 1 * raid5 2 g 100G 500G+600G /datafile/u01,u02 700G+700G /datafile/u01,u02 800G+900G/datafile/u01,u02 800G+900G/datafile/u01,u02 分别挂接在 分别挂接在 分别挂接在挂接在OMCvDATA vg

TD外场磁阵上的磁盘配置参考如下:

硬盘数 6块硬盘 11块硬盘 热备盘 1块热备 2块热备 虚拟盘 1*raid5 1*raid5 OMCvg 100G 100G DATAvg 500G+600G /datafile/u01,u02 700G+800G+800G /datafile/u01,u02,u03 20块硬盘 2块热备 3*raid5 100G 650G+750G * 5 /datafile/u01,u02,u03,u04,u05,u06

本文来源:https://www.bwwdw.com/article/iumw.html

Top