RHCA436高可用科目题库

更新时间:2024-05-18 04:45:01 阅读量: 综合文库 文档下载

说明:文章内容仅供预览,部分内容可能不全。下载后的文档,内容与下面显示的完全一致。下载之前请确认下面内容是否您想要的,是否完整无缺。

本手册只针对RHCA-436高可用科目题库,环境、虚拟机配置、yum源等其他方面本文概不涉及

版权所有者为Master-ztj,如转载请著名出处,欢迎下载学习,禁止用于商业用途

考试环境:

1台物理机:classroom.example.com 3台虚拟机:

1.nodea.private.example.com2.nodeb.private.example.com 3.nodec.private.example.com

第一题:请配置一个高可用集群,要求如下: 1.集群名称:cluster0

2.集群默认用户的密码请设置为:redhat 解:

1.三个节点通过yum安装集群组件:

yum –y install pcs fence-virt fence-virtd fence-virtd-* fence-agents-all

如果太长,记不住可以这样 yum –y install pcs fence*

2.三个节点关闭防火墙或使防火墙通过集群服务,建议使用方法2 systemctl disable firewalld systemctl stop firewalld 或

firewall-cmd - -permanent- -add-service=http #后续题里面会有http服务 firewall-cmd - -permanent - -add-service=high-availablity #集群服务

firewall-cmd - -permanent - -add-port=1229/tcp #tcp协议下fence端口打开 firewall-cmd - -permanent - -add-port=1229/udp #udp协议下fence端口打开 firewall-cmd - -reload #防火墙策略刷新,使其即时生效 请注意上文中单 -和双- -的区别 3.三个节点启动pcsd服务

systemctl enable pcsd ; systemctl start pcsd

4.单节点效验虚拟机是否符合集群要求

pcs cluster auth node{a,b,c}.private.example #此命令单节点运行即可,命令中

的那个大括号为正则表达式代表和的关系

输入集群默认用户:hacluster 密码:redhat

提示Authorized代表配置是没有问题的

5. pcs cluster setup --name cluster0 node{a,b,c}.private.example.com

#建立名称为cluster0的集群集群内主机名称为nodea、nodeb、nodec 6. pcs cluster enable --all

#将集群设置为开机自启,这里先不要用start命令启动集群

第二题,配置集群的fence功能,此功能的作用是手动切换资源,防止集群脑裂 背景:

1.这里我们使用fence_xvm方式来配置集群fence功能

2.环境里面需要在物理机上使用:dd if=/dev/urandom of=/etc/cluster/fence_xvm.key bs=1K count=4 这条命令创建fence密钥“fence_xvm.key”然后CP到3个节点的/etc/cluster/目录下,拷贝之前,还需要在物理上运行fence_virtd -c命令来配置fence功能使用哪块网卡,一般选择私网的那块网卡,环境配置,这里就不多讲了 解:

1.pcs cluster start --all #启动集群

2.pcs stonith create fence_nodea fence_xvm port=”nodea”

pcmk_host_list=\ #单节点输入即可 pcs stonith create fence_nodeb fence_xvm port=”nodeb” pcmk_host_list=\

pcs stonith create fence_nodec fence_xvm port=”nodec” pcmk_host_list=\3.pcs stonith show pcs stonith --full

pcs status #查看fence服务是否启动,配置是否正常如下图所示

如上所示代表集群fence功能正常,集群状态正常

第三题,配置集群的日志文件为本地/var/log目录下的nodea.log nodeb.log nodec.log 解:

1.vim /etc/corosync/corosync.conf 最下面 logging {

to_syslog: yes在这行下面添加: to_file: yes

logfile: /var/log/nodea.log }

绿色这2行

然后:按ESC在冒号后面输入wq保存退出 重启集群服务

pcs cluster stop --all pcs cluster start --all cat /var/log/nodea.log

查看是否有内容,如下图所示:

代表成功将日志文件改写定位

第四题,配置集群报警邮箱地址为student@workstations.example.com 资源名称为:ClusterAlert 解:

1. pcs resource create clustermonitor mailto email=\subject=ClusterAlert --group clustergroup

第七题和第八题一起来,配置集群iscsi磁盘和多路径 背景:这里先做7/8/9/10再做5/6

1. yum -y install iscsi-initiator-utils device-mapper-multipath 装iscsi和多路径包

2. vim /etc/iscsi/initiatorname.iscsi

编辑iscsi配置文件改为:InitiatorName=iqn.2015-06.com.example:nodea 另外2台机器分别改为:InitiatorName=iqn.2015-06.com.example:nodeb InitiatorName=iqn.2015-06.com.example:nodec 保存后三台机器都要改下链接刷新值 sed -i ‘s/120/5/g ‘ /etc/iscsi/iscsi.conf

从2分钟改为5秒

3. iscsiadm -m discovery -t st -p 192.168.1.9:3260 iscsiadm -m discovery -t st -p 192.168.2.9:3260 iscsiadm -m node -l

配置iscsi链接,如下图所示

fdisk -l查看磁盘

4.配置多路径软件 mpathconf --enable

启用多路径配置文件

修改 vim /etc/multipath.conf

在最后的大括号中添加 : devnode “^vd[a-z]”如下图所示:

保存退出

5.输入multipath -v3 multipath -ll

将2个盘虚拟为1个,fdisk -l 查看结果

如图所示将sda和sdb 虚拟为mpatha 第九题,配置集群资源磁盘锁和文件系统

1.pcs resource create dlm controld op monitor interval=30s on-fail=fence clone interleave=true ordered=true

pcs resource create clvmd clvm op monitor interval=30s on-fail=fence clone interleave=true ordered=true

创建dlm和clvmd这2个集群资源

2.pcs constraint order start dlm-clone then clvmd-clone 设置先启动dlm再启动 clvmd

pcs constraint colocation add clvmd-clone with dlm-clone 设置clvmd随dlm一起启动

3.yum -y install dlm lvm2-cluster gfs2-utils 安装dlm锁、lvm2和gfs2文件系统 lvmconf --enable-cluster

启用lvm集群管理功能

systemctl stop lvm2-lvmetad.service 停止本地lvm服务

pcs property set no-quorum-policy=freeze配置no-quorum-policy为freeze 4.pvcreate /dev/mapper/mpatha

vgcreate -Ay -cy clustervg /dev/mapper/mpatha lvcreate -L 1G -n servicedata clustervg

mkfs.gfs2 -j3 -p lock_dlm -t cluster0:data /dev/clustervg/servicedata 创建pv vg lv 并格式化为gfs2文件系统

按y 然后回车,格式化

格式化完毕

第十题,创建集群文件系统clusterfs 解:

1. pcs resource create clusterfs Filesystem device=/dev/clustervg/servicedata directory=/var/www/ fstype=\options=\op monitor interval=10s on-fail=fence clone interleave=true

单节点输入即可

2.pcs resource show clusterfs 查看资源

3. pcs constraint order start clvmd-clone then clusterfs-clone 配置启动顺序先启锁再启文件系统

4. pcs constraint colocation add clusterfs-clone with clvmd-clone 锁成功启动后,启动文件系统

第五题和第六题

配置集群阿帕奇服务,使集群服务永不在nodea上运行,资源首先会在nodeb上运行,如果nodeb宕掉,资源会顺利漂移到nodec上 解:

1. yum -y install httpd安装阿帕奇包 2. cd /var/www/html

3. cat >>index.html<< EOF自己写一个网页文件,考试的时候会给你一个写好的 4.pcs resource create clusterservice apache --group clustergroup

pcs resource create clusterip IPaddr2 ip=172.25.0.88 cidr_netmask=24 --group clustergroup pcs constraint order start clusterfs-clone then clustergroup

创建apache服务资源和漂移IP资源,先启动集群文件系统再启动集群资源 如下图所示:

5.配置集群资源在nodeb节点上运行,并且永不在nodea上运行 pcs constraint location clustergroup prefers nodeb.private.example.com pcs constraint location clustergroup avoids nodea.private.example.com

6. pcs config

查看集群的全部配置信息

7.打开网页172.25.0.88 看看是否有内容

将节点nodeb poweroff后查看网页是否依然能够打开 在节点nodec上pcs status 查看群集状态:

资源全部在nodec上,代表集群功能正常,全部题目完成

本文来源:https://www.bwwdw.com/article/gy47.html

Top