RHCS

        RHCS是Red Hat Cluster Suite的缩写,也就是红帽子集群套件,RHCS是一个能够提供高可用性、高可靠性、负载均衡、存储共享且经济廉价的集群工具集合,它将集群系统中三大集群架构融合一体,可以给web应用、数据库应用等提供安全、稳定的运行环境。更确切的说,RHCS是一个功能完备的集群应用解决方案,它从应用的前端访问到后端的数据存储都提供了一个行之有效的集群架构实现,通过RHCS提供的这种解决方案,不但能保证前端应用持久、稳定的提供服务,同时也保证了后端数据存储的安全。RHCS提供了集群系统中三种集群构架,分别是高可用性集群、负载均衡集群、存储集群。

更详细介绍(转载)

前提:

1)本配置共有三个测试节点,分别node1.test.com、node2.test.com和node3.test.com,相的IP地址分别为172.16.100.6、172.16.100.7和172.16.100.8;系统为rhel5.8 32bit;

2)集群服务为apache的httpd服务;

3)提供web服务的地址为172.16.100.1;

4)为集群中的每个节点事先配置好yum源;

5) 额外提供了主机172.16.100.100做为跳板机,以其为平台实现对集群中各节点的管理;其主机名称为stepping.test.com;

一、准备工作

为了配置一台Linux主机成为HA的节点,通常需要做出如下的准备工作:

1.1 设定主机名称解析

所有节点的主机名称和对应的IP地址解析服务可以正常工作,且每个节点的主机名称需要跟"uname -n“命令的结果保持一致;因此,需要保证三个节点上的/etc/hosts文件均为下面的内容:

172.16.100.6   node1.test.com node1172.16.100.7   node2.test.com node2172.16.100.8   node3.test.com node3

为了使得重新启动系统后仍能保持如上的主机名称,还分别需要在各节点执行类似如下的命令:

Node1:# sed -i 's@\(HOSTNAME=\).*@\1node1.test.com@g'  /etc/sysconfig/network# hostname node1.test.comNode2:# sed -i 's@\(HOSTNAME=\).*@\1node2.test.com@g' /etc/sysconfig/network# hostname node2.test.comNode3:# sed -i 's@\(HOSTNAME=\).*@\1node3.test.com@g' /etc/sysconfig/network# hostname node3.test.com

1.2 管理机设定

后续的诸多设定,如rpm包安装、配置文件修改等都需要在三个节点上同时进行;为了便于实现此过程,我们这里提供了一台跳板机172.16.100.100,其可以以基于密钥认证的方式分别与三个节点进行通信。实际使用中,如果没有专用的跳板机,也可以以三个节点中的某节点来替代。

首先让跳板机能以主机名称与各节点进行通信,此为非必须,仅为使用方便。在跳板机上建立/etc/hosts文件,内容如下:

172.16.100.6   node1.test.com node1172.16.100.7   node2.test.com node2172.16.100.8   node3.test.com node3

接着在跳板机上为ssh生成密钥:

# ssh-keygen -t rsa -P ''

其次生成的密钥的公钥传输至集群中的每个节点:

# ssh-copy-id -i ~/.ssh/id_rsa.pub root@node1# ssh-copy-id -i ~/.ssh/id_rsa.pub root@node2# ssh-copy-id -i ~/.ssh/id_rsa.pub root@node3

说明:如果不想使用跳板机,后面演示过程中,但凡在跳板机上以循环方式执行的命令均可以分别在各节点执行的方式进行。

二、集群安装

RHCS的核心组件为cman和rgmanager,其中cman为基于openais的“集群基础架构层”,rgmanager为资源管理器。RHCS的集群中资源的配置需要修改其主配置文件/etc/cluster/cluster.xml实现,这对于很多用户来说是比较有挑战性的,因此,RHEL提供了system-config-cluster这个GUI工具,其仅安装在集群中的某一节点上即可,而cman和rgmanager需要分别安装在集群中的每个节点上。这里选择将此三个rpm包分别安装在了集群中的每个节点上,这可以在跳板机上执行如下命令实现:

# for I in {1..3}; do ssh node$I 'yum -y install cman rgmanager system-config-cluster'; done

三、集群配置及其启动

3.1 为集群创建配置文件

RHCS的配置文件/etc/cluster/cluster.conf,其在每个节点上都必须有一份,且内容均相同,其默认不存在,因此需要事先创建,ccs_tool命令可以完成此任务。另外,每个集群通过集群ID来标识自身,因此,在创建集群配置文件时需要为其选定一个集群名称,这里假设其为tcluster。此命令需要在集群中的某个节点上执行。

# ccs_tool create tcluster

查看生成的配置文件的内容:

# cat /etc/cluster/cluster.conf
  
  
  
    
    
  

ccs_tool命令用于在线更新CCS的配置文件,其有许多子命令,可以使用-h获取其使用帮助及每个子命令的使用帮助。

3.2 为集群添加fence设备

一个RHCS集群至少需要一个fence设备,正常环境中,可以选择将其配置到集群中来。这里为演示环境,没有可用的fence设备,因此,选择使用“manual fence”,即手动fence。创建fence设备也需要使用ccs_tool命令进行,其需要在集群中的某节点上执行,而且需要与前面创建集群配置文件时所执行的命令在同一个节点上进行。

查看fence代理的名称,可以通过查看cman安装生成文件来实现。

# rpm -ql cman | grep /sbin/fence
/sbin/fence_ack_manual/sbin/fence_apc/sbin/fence_apc_snmp/sbin/fence_bladecenter/sbin/fence_brocade/sbin/fence_bullpap/sbin/fence_cisco_mds/sbin/fence_cisco_ucs/sbin/fence_drac/sbin/fence_drac5/sbin/fence_egenera/sbin/fence_ifmib/sbin/fence_ilo/sbin/fence_ilo_mp/sbin/fence_ipmilan/sbin/fence_lpar/sbin/fence_manual/sbin/fence_mcdata/sbin/fence_node/sbin/fence_rhevm/sbin/fence_rps10/sbin/fence_rsa/sbin/fence_rsb/sbin/fence_sanbox2/sbin/fence_scsi/sbin/fence_scsi_test/sbin/fence_tool/sbin/fence_virsh/sbin/fence_vixel/sbin/fence_vmware/sbin/fence_vmware_helper/sbin/fence_vmware_soap/sbin/fence_wti/sbin/fence_xvm/sbin/fence_xvmd/sbin/fenced

这里为tcluster添加名为meatware的fence设备,其fence代理为fence-manual。

# ccs_tool addfence meatware fence-manaual

接着可以使用ccs_tool lsfence查看fence设备:

# ccs_tool lsfence
Name             Agentmeatware         fence-manaual

3.3 为集群添加节点

RHCS集群需要配置好各节点及相关的fence设备后才能启动,因此,这里需要事先将各节点添加进集群配置文件。每个节点在添加进集群时,需要至少为其配置node id(每个节点的id必须惟一)及相关的fence设备两个属性。ccs_tool的addnode子命令可以完成节点添加。例如将前面规划的三个集群节点添加至集群中,可以使用如下命令实现。

# ccs_tool addnode -n 1 -f meatware node1.test.com  # ccs_tool addnode -n 2 -f meatware node2.test.com # ccs_tool addnode -n 3 -f meatware node3.test.com

查看已经添加完成的节点及相关信息:

# ccs_tool lsnode
Cluster name: tcluster, config_version: 5Nodename                        Votes Nodeid Fencetypenode1.test.com                   1    1    meatwarenode2.test.com                   1    2    meatwarenode3.test.com                   1    3    meatware

3.4 启动集群

RHCS集群会等待各节点都启动后方才进入正常工作状态,因此,需要把集群各节点上的cman服务同时启动起来。这分别需要在各节点上执行如下命令。

# /etc/rc.d/init.d/cman start

查看服务监听的端口,以验正服务启动状况:

# netstat -tunlp | grep -E "ccsd|aisexec"tcp        0      0 127.0.0.1:50006             0.0.0.0:*                   LISTEN      14544/ccsd          tcp        0      0 0.0.0.0:50008               0.0.0.0:*                   LISTEN      14544/ccsd          udp        0      0 172.16.100.6:5405           0.0.0.0:*                               14552/aisexec       udp        0      0 172.16.100.6:5149           0.0.0.0:*                               14552/aisexec       udp        0      0 239.192.110.162:5405        0.0.0.0:*                               14552/aisexec       udp        0      0 0.0.0.0:50007               0.0.0.0:*                               14544/ccsd

而后在各节点启动rgmanager服务,这可以在跳板机上执行如下命令实现:

# for I in {1..3}; do ssh node$I '/etc/init.d/rgmanager start'; done

3.5 查看集群状态信息

clustat命令可用于显示集群成员信息、法定票数信息及服务相关信息。

# clustat Cluster Status for tcluster @ Mon May 13 12:06:53 2013Member Status: Quorate Member Name                                                     ID   Status ------ ----                                                     ---- ------ node1.test.com                                                    1 Online, Local node2.test.com                                                    2 Online node3.test.com                                                    3 Online

cman_tool的status子命令则以当前节点为视角来显示集群的相关信息。

# cman_tool statusVersion: 6.2.0Config Version: 5Cluster Name: tclusterCluster Id: 28212Cluster Member: YesCluster Generation: 12Membership state: Cluster-MemberNodes: 3Expected votes: 3Total votes: 3Node votes: 1Quorum: 2  Active subsystems: 8Flags: Dirty Ports Bound: 0 177  Node name: node1.test.comNode ID: 1Multicast addresses: 239.192.110.162 Node addresses: 172.16.100.6

cman_tool的nodes子命令则可以列出集群中每个节点的相关信息。

# cman_tool nodesNode  Sts   Inc   Joined               Name   1   M      4   2013-05-13 12:00:09  node1.test.com   2   M      8   2013-05-13 12:00:28  node2.test.com   3   M     12   2013-05-13 12:00:39  node3.test.com

cman_tool的nodes子命令则可以列出集群中每个服务的相关信息。 

# cman_tool servicestype             level name       id       state       fence            0     default    00010001 none        [1 2 3]dlm              1     rgmanager  00020001 none        [1 2 3]

四、配置集群服务

配置集群服务涉及到配置故障转移域、服务及资源,这些需要手动修改集群配置文件,或使用system-config-cluster这个GUI程序完成。

五、配置使用gfs2文件系统

这里假设集群节点均已经正常登录某iscsi target,本地正常映射了磁盘/dev/sdb,且创建分区/dev/sdb1和/dev/sdb2。

5.1 在集群节点上安装gfs2-utils

以下命令在跳板机上执行,实现在集群所有节点上统一部署安装gfs2-utils并启动gfs2的服务

# for I in {1..3}; do ssh node$I 'yum -y install gfs2-utils; service gfs2 start'; done

在集群中的某节点上执行如下命令,查看gfs2模块的装载情况:

# lsmod  | grep gfs
gfs2                  354825  1 lock_dlmconfigfs               28625  2 dlm

5.2 gfs2相关命令行工具的使用

mkfs.gfs2为gfs2文件系统创建工具,其一般常用的选项有:

-b BlockSize:指定文件系统块大小,最小为512,默认为4096;

-J MegaBytes:指定gfs2日志区域大小,默认为128MB,最小值为8MB;

-j Number:指定创建gfs2文件系统时所创建的日志区域个数,一般需要为每个挂载的客户端指定一个日志区域;

-p LockProtoName:所使用的锁协议名称,通常为lock_dlm或lock_nolock之一;

-t LockTableName:锁表名称,一般来说一个集群文件系统需一个锁表名以便让集群节点在施加文件锁时得悉其所关联到的集群文件系统,锁表名称为clustername:fsname,其中的clustername必须跟集群配置文件中的集群名称保持一致,因此,也仅有此集群内的节点可访问此集群文件系统;此外,同一个集群内,每个文件系统的名称必须惟一;

因此,若要在前面的/dev/sdb1上创建集群文件系统gfs2,可以使用如下命令:

# mkfs.gfs2 -j 3 -p lock_dlm -t tcluster:sdb1 /dev/sdb1

六、配置使用cLVM(集群逻辑卷)

在RHCS集群节点上安装lvm2-cluster:

# for I in {1..3}; do ssh node$I 'yum -y install lvm2-cluster;'; done

在RHCS的各节点上,为lvm启用集群功能:

# for I in {1..3}; do ssh node$I 'lvmconf --enable-cluster'; done

而后,为RHCS各节点启动clvmd服务:

# for I in {1..3}; do ssh node$I 'service clvmd start'; done

如果需要创建物理卷、卷组和逻辑卷,使用管理单机逻辑卷的相关命令即可;比如,将/dev/sdb2创建为物理卷:

# pvcreate /dev/sdb2# pvs

此时,在另外的其它节点上也能够看到刚刚创建的物理卷。

创建卷组和逻辑卷:

# vgcreate clustervg /dev/sdb2# lvcreate -L 2G -n clusterlv clustervg

七、gfs2的其它管理工具

7.1 gfs2-tool

查看挂载至/mydata目录上的某gfs2文件系统上的日志相关信息:

# gfs2-tool journals /mydata

7.2 gfs2-jadd

为挂载至/mydata的gfs2文件系统添加新的日志区域:

# gfs2_jadd -j 1 /mydata

7.3 gfs2-grow

如果需要扩展逻辑卷,其方式与普通逻辑卷相同,只是gfs2文件系统的扩展,则需要gfs2_grow进行,其需要以挂载点为参数:

# gfs2-grow /mydata