时间:2021-07-01 10:21:17 帮助过:176人阅读
此次搭建gfs2文件系统是以这篇博文为前提,链接如下 http://blog.csdn.net/wjciayf/article/details/40679289 为了实验过程的清晰,故把示意图再次放在本节作为参考 一:实验环境描述如下 1.在上次试验中已经安装好了这两台虚拟机,如下所示 [root@localhost
此次搭建gfs2文件系统是以这篇博文为前提,链接如下
http://blog.csdn.net/wjciayf/article/details/40679289
为了实验过程的清晰,故把示意图再次放在本节作为参考
一:实验环境描述如下
1.在上次试验中已经安装好了这两台虚拟机,如下所示
[root@localhost ~]# virsh list --all
Id Name State
----------------------------------------------------
- rhel6.4-1 shut off
- rhel6.4-2 shut off
2.把Vmware上的rhel6.4作为管理节点同时也作为共享存储SAN节点(额外添加一块10g硬盘,作为共享磁盘)
3.两台虚拟机作为gfs节点
4.主机名和IP关系对应如下
172.16.1.1 manager
172.16.1.2 gfs1
172.16.1.3 gfs2
5.集群名为GfsCluster
二:配置管理节点
1.设置主机名、hosts文件、配置manager,gfs1,gfs2基于秘钥的访问(前面的操作gfs1,gfs2同时设置)
2.安装luci和scsi-target-utils
[root@manager ~]# yum -y install luci scsi-target-utils
3.启动luci
[root@manager ~]# chkconfig luci on ;/etc/init.d/luci start
Point your web browser tohttps://manager:8084 (or equivalent) to access luci
[root@manager ~]#
4.把新添加的10g硬盘分成一个1g(作为qdisk)分区sdb1和一个9g(作为gfs2)分sdb2
5.配置iscsitarget
[root@manager ~]# grep -v "^#" /etc/tgt/targets.conf
default-driver iscsi
backing-store /dev/sdb1
backing-store /dev/sdb2
6.启动tgtd服务并检查是否正确生成目标
[root@manager ~]# chkconfig tgtd on;/etc/init.d/tgtd start
Starting SCSI target daemon: [ OK ]
[root@manager ~]#
[root@manager ~]# tgt-admin -s
Target 1:iqn.2014-10.com.wjcyf:server.target1
System information:
Driver: iscsi
State: ready
I_T nexus information:
LUN information:
LUN: 0
Type: controller
SCSI ID: IET 00010000
SCSI SN: beaf10
Size: 0 MB, Block size: 1
Online: Yes
Removable media: No
Prevent removal: No
Readonly: No
Backing store type: null
Backing store path: None
Backing store flags:
LUN: 1
Type: disk
SCSI ID: IET 00010001
SCSI SN: beaf11
Size: 1000 MB, Block size: 512
Online: Yes
Removable media: No
Prevent removal: No
Readonly: No
Backing store type: rdwr
Backing store path: /dev/sdb1
Backing store flags:
LUN: 2
Type: disk
SCSI ID: IET 00010002
SCSI SN: beaf12
Size: 9737 MB, Block size: 512
Online: Yes
Removable media: No
Prevent removal: No
Readonly: No
Backing store type: rdwr
Backing store path: /dev/sdb2
Backing store flags:
Account information:
ACL information:
ALL
[root@manager ~]#
三:配置gfs1和gfs2节点
1.安装rgmanager,cman,gfs2-utils,iscsi-initiator等相关软件包
[root@manager ~]# for i in 1 2; do ssh gfs$i yum -y install rgmanager cman gfs2-utils iscsi-initiator-utils; done
2.启动ricci服务并为ricci用户设置密码
[root@manager ~]# for i in 1 2; do ssh gfs$i "chkconfig ricci on ; /etc/init.d/ricci start"; done
[root@manager ~]# for i in 1 2; do ssh gfs$i 'echo "111111" | passwd --stdin ricci' ; done
Changing password for user ricci.
passwd: all authentication tokens updatedsuccessfully.
Changing password for user ricci.
passwd: all authentication tokens updatedsuccessfully.
3.连接iscsi服务
[root@manager ~]# for i in 1 2; do ssh gfs$i iscsiadm --mode discoverydb --type sendtargets --portal manager --discover;done
[root@manager ~]# for i in 1 2; do ssh gfs$i /etc/init.d/iscsi start; done
4.此时新发现的磁盘sda将作为qdisk,sdb将作为gfs2,如下所示
[root@gfs1 ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPEMOUNTPOINT
vda 252:0 0 5G 0 disk
vda1 252:1 0 3.9G 0 part /
vda2 252:2 0 1.1G 0 part [SWAP]
sda 8:0 0 953.7M 0 disk
sdb 8:16 0 9.1G 0 disk
[root@gfs1 ~]#
5.在gfs1或gfs2上给/dev/sdb分成一个分区/dev/sdb1
6.创建gfs2挂载目录/gfs2
[root@manager ~]# for i in 1 2; do ssh gfs$i mkdir /gfs2; done
四.创建GfsCluster集群
1.打开IE浏览器输入https://192.168.78.11:8804
2.点击“继续浏览此网站(不推荐)”—输入manager节点用户名"root",密码:111111,即可进入luci管理界面,如下所示
3.依次点击“Manager clusters”—“Create”打开“创建新集群”对话框,如下所示
4.填写相关内容后,如下所示
5.确认无误后,点击“CreateCluster”,如下所示,正在创建集群
6.集群创建完毕,如下所示
五:创建gfs2分布式文件系统
1.在gfs1或gfs2上操作,查看集群状态
[root@gfs1 ~]# clustat
Cluster Status for GfsCluster @ Wed Oct 2907:03:30 2014
Member Status: Quorate
Member Name ID Status
------ ---- ---- ------
gfs1 1Online, Local
gfs2 2Online
[root@gfs1 ~]#
2. 创建gfs2文件系统
[root@gfs1 ~]# mkfs.gfs2 -j 2 -p lock_dlm -t GfsCluster:TestGfs /dev/sdb1
This will destroy any data on /dev/sdb1.
It appears to contain: data
Are you sure you want to proceed? [y/n] y
Device: /dev/sdb1
Blocksize: 4096
Device Size 9.07 GB (2377212 blocks)
Filesystem Size: 9.07 GB (2377212 blocks)
Journals: 2
Resource Groups: 37
Locking Protocol: "lock_dlm"
Lock Table: "GfsCluster:TestGfs"
UUID: f7fe8f5f-98a6-478c-2845-9a8d26b229f1
[root@gfs1 ~]#
其中参数含义如下:
-j //设置支持的节点数
-p //指定锁方式为分布式锁
-t //指定DLM锁所在的表名称
3.挂载gfs2文件系统
[root@manager ~]# for i in 1 2; do ssh gfs$i 'echo "/dev/sdb1 /gfs2 gfs2 defaults 0 0" >>/etc/fstab'; done
[root@manager ~]# for i in 1 2; do ssh gfs$i mount /gfs2; done
[root@manager ~]# for i in 1 2; do ssh gfs$i chkconfig gfs2 on; done
[root@manager ~]# for i in 1 2; do ssh gfs$i df -h |grep gfs2; done
/dev/sdb1 9.1G 259M 8.9G 3% /gfs2
/dev/sdb1 9.1G 259M 8.9G 3% /gfs2
[root@manager ~]#
4.在/gfs2下创建一个名为abcd的文件夹,然后到gfs2上去查看
[root@gfs1 ~]# mkdir /gfs2/abcd
[root@gfs2 ~]# ll /gfs2/
total 4
drwxr-xr-x 2 root root 3864 Oct 29 07:14abcd
[root@gfs2 ~]#
由此也说明gfs2基本配置成功
六:配置fence设备
1.以上配置的gfs2文件系统,在正常关机和重启的情况下是可以正常工作的,但是如果不是正常关机和重启,比如其中一个节点突然死机或网线被拔出,这时gfs2就不能正常工作了,一个节点网线被拔出后,gfs2文件系统就会挂起,另一个节点也就不能正常的读写操作,这个时候就需要fence设备
2.RHCS提供的fence设备分为两种,一种是内部fence,一种是外部fence
内部fence常见的如下:
■IBM服务器提供的RSAII卡
■HP服务器提供的iLO卡
■DELL服务器提供的DRAC卡
■智能平台管理接口IPMI
外部fence常见的如下:
■UPS电源
■SAN SWITCH
■NETWORK SWITCH
关于fence设备的添加,下片博文再做讨论