阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

红帽子RHCS套件安装与配置

140次阅读
没有评论

共计 12895 个字符,预计需要花费 33 分钟才能阅读完成。

RHCS 提供的三个核心功能

高可用集群是 RHCS 的核心功能。当应用程序出现故障,或者系统硬件、网络出现故障时,应用可以通过 RHCS 提供的高可用性服务管理组件自动、快速从一个节点切换到另一个节点,节点故障转移功能对客户端来说是透明的,从而保证应用持续、不间断的对外提供服务,这就是 RHCS 高可用集群实现的功能。

RHCS 通过 LVS(LinuxVirtualServer)来提供负载均衡集群,而 LVS 是一个开源的、功能强大的基于 IP 的负载均衡技术,LVS 由负载调度器和服务访问节点组成,通过 LVS 的负载调度功能,可以将客户端请求平均的分配到各个服务节点,同时,还可以定义多种负载分配策略,当一个请求进来时,集群系统根据调度算法来判断应该将请求分配到哪个服务节点,然后,由分配到的节点响应客户端请求,同时,LVS 还提供了服务节点故障转移功能,也就是当某个服务节点不能提供服务时,LVS 会自动屏蔽这个故障节点,接着将失败节点从集群中剔除,同时将新来此节点的请求平滑的转移到其它正常节点上来;而当此故障节点恢复正常后,LVS 又会自动将此节点加入到集群中去。而这一系列切换动作,对用户来说,都是透明的,通过故障转移功能,保证了服务的不间断、稳定运行。

RHCS 通过 GFS 文件系统来提供存储集群功能,GFS 是 GlobalFileSystem 的缩写,它允许多个服务同时去读写一个单一的共享文件系统,存储集群通过将共享数据放到一个共享文件系统中从而消除了在应用程序间同步数据的麻烦,GFS 是一个分布式文件系统,它通过锁管理机制,来协调和管理多个服务节点对同一个文件系统的读写操作。现在用的最多的是 gfs2 版本,GFS 文件系统必须运行在集群上。

RHCS+GFS(红帽 HA+GFS) http://www.linuxidc.com/Linux/2014-04/99574.htm

基于 RHCS+iSCSI+CLVM 实现 Web 服务的共享存储集群架构 http://www.linuxidc.com/Linux/2013-05/84888.htm

RHCS 多节点部署应用企业环境 http://www.linuxidc.com/Linux/2013-05/84456.htm

RedHat 5.8 x64 RHCS Oracle 10gR2 HA 实践配置 http://www.linuxidc.com/Linux/2013-03/81589.htm

RHCS 基于 Java 的 HA 双机热备 http://www.linuxidc.com/Linux/2012-12/76587.htm

图解 RHCS 的安装配置与应用 http://www.linuxidc.com/Linux/2012-11/75111.htm

RHCS 集群的组成

RHCS 是一个集群工具的集合,主要有下面几大部分组成:

1. 集群构架管理器

这是 RHCS 集群的一个基础套件,提供一个集群的基本功能,使各个节点组成集群在一起工作,具体包含分布式集群管理器(CMAN)、成员关系管理、锁管理(DLM)、配置文件管理(CCS)、栅设备(FENCE)。

2. 高可用服务管理器

提供节点服务监控和服务故障转移功能,当一个节点服务出现故障时,将服务转移到另一个健康节点。

3. 集群配置管理工具

RHCS 最新版本通过 LUCI 来配置和管理 RHCS 集群,LUCI 是一个基于 web 的集群配置方式,通过 luci 可以轻松的搭建一个功能强大的集群系统。节点主机可以使用 ricci 来和 luci 管理端进行通信。

4.LinuxVirtualServer

LVS 是一个开源的负载均衡软件,利用 LVS 可以将客户端的请求根据指定的负载策略和算法合理的分配到各个服务节点,实现动态、智能的负载分担。

RHCS 除了上面的几个核心构成,还可以通过下面一些组件来补充 RHCS 集群功能。

5.RedHatGFS(GlobalFileSystem)

GFS 是 Redhat 公司开发的一款集群文件系统,目前的最新版本是 GFS2,GFS 文件系统允许多个服务同时读写一个磁盘分区,通过 GFS 可以实现数据的集中管理,免去了数据同步和拷贝的麻烦,但 GFS 并不能孤立的存在,安装 GFS 需要 RHCS 的底层组件支持。

6.ClusterLogicalVolumeManager

Cluster 逻辑卷管理,即 CLVM,是 LVM 的扩展,这种扩展允许 cluster 中的机器使用 LVM 来管理共享存储。

7.iSCSI

iSCSI 是一种在 Internet 协议上, 特别是以太网上进行数据块传输的标准, 它是一种基于 IPStorage 理论的新型存储技术,RHCS 可以通过 ISCSI 技术来导出和分配共享存储的使用。

RHCS 集群结构

红帽子 RHCS 套件安装与配置

图 1 是典型的 RHCS 集群拓扑结构:整个拓扑结构分为三个层面

最上层是 LVS 负载均衡层,中间一层是 RealServer 层,就是服务节点部分,最后一层是共享存储层,主要用于给 GFS 文件系统提供共享存储空间。

RHCS 集群运行原理及功能介绍

1、分布式集群管理器(CMAN)

ClusterManager,简称 CMAN,是一个分布式集群管理工具,它运行在集群的各个节点上,为 RHCS 提供集群管理任务。

CMAN 用于管理集群成员、消息和通知。它通过监控每个节点的运行状态来了解节点成员之间的关系,当集群中某个节点出现故障,节点成员关系将发生改变,CMAN 及时将这种改变通知底层,进而做出相应的调整。

2、锁管理(DLM)

DistributedLockManager,简称 DLM,表示一个分布式锁管理器,它是 RHCS 的一个底层基础构件,同时也为集群提供了一个公用的锁运行机制,在 RHCS 集群系统中,DLM 运行在集群的每个节点上,GFS 通过锁管理器的锁机制来同步访问文件系统元数据。CLVM 通过锁管理器来同步更新数据到 LVM 卷和卷组。

DLM 不需要设定锁管理服务器,它采用对等的锁管理方式,大大的提高了处理性能。同时,DLM 避免了当单个节点失败需要整体恢复的性能瓶颈,另外,DLM 的请求都是本地的,不需要网络请求,因而请求会立即生效。最后,DLM 通过分层机制,可以实现多个锁空间的并行锁模式。

3、配置文件管理(CCS)

ClusterConfigurationSystem,简称 CCS,主要用于集群配置文件管理和配置文件在节点之间的同步。有时候,luci 管理界面可能由于网络等方面的以素并不是那么畅快,CCS 就显得很必要了。CCS 运行在集群的每个节点上,监控每个集群节点上的单一配置文件 /etc/cluster/cluster.conf 的状态,当这个文件发生任何变化时,都将此变化更新到集群中的每个节点,时刻保持每个节点的配置文件同步。例如,管理员在节点 A 上更新了集群配置文件,CCS 发现 A 节点的配置文件发生变化后,马上将此变化传播到其它节点上去。

rhcs 的配置文件是 cluster.conf,它是一个 xml 文件,具体包含集群名称、集群节点信息、集群资源和服务信息、fence 设备等,这个会在后面讲述。

4、栅设备(FENCE)

FENCE 设备是 RHCS 集群中必不可少的一个组成部分,通过 FENCE 设备可以避免因出现不可预知的情况而造成的“脑裂”现象,FENCE 设备的出现,就是为了解决类似这些问题,Fence 设备主要就是通过服务器或存储本身的硬件管理接口,或者外部电源管理设备,来对服务器或存储直接发出硬件管理指令,将服务器重启或关机,或者与网络断开连接。

FENCE 的工作原理是:当意外原因导致主机异常或者宕机时,备机会首先调用 FENCE 设备,然后通过 FENCE 设备将异常主机重启或者从网络隔离,当 FENCE 操作成功执行后,返回信息给备机,备机在接到 FENCE 成功的信息后,开始接管主机的服务和资源。这样通过 FENCE 设备,将异常节点占据的资源进行了释放,保证了资源和服务始终运行在一个节点上。

RHCS 的 FENCE 设备可以分为两种:内部 FENCE 和外部 FENCE,常用的内部 FENCE 有 IBMRSAII 卡,HP 的 iLO 卡,还有 IPMI 的设备等,外部 fence 设备有 UPS、SANSWITCH、NETWORKSWITCH 等

5、高可用服务管理器

高可用性服务管理主要用来监督、启动和停止集群的应用、服务和资源。它提供了一种对集群服务的管理能力,当一个节点的服务失败时,高可用性集群服务管理进程可以将服务从这个失败节点转移到其它健康节点上来,并且这种服务转移能力是自动、透明的。

RHCS 通过 rgmanager 来管理集群服务,rgmanager 运行在每个集群节点上,在服务器上对应的进程为 clurgmgrd。

在一个 RHCS 集群中,高可用性服务包含集群服务和集群资源两个方面,集群服务其实就是应用服务,例如 apache、mysql 等,集群资源有很多种,例如一个 IP 地址、一个运行脚本、ext3/GFS 文件系统等。

在 RHCS 集群中,高可用性服务是和一个失败转移域结合在一起的,所谓失败转移域是一个运行特定服务的集群节点的集合。在失败转移域中,可以给每个节点设置相应的优先级,通过优先级的高低来决定节点失败时服务转移的先后顺序,如果没有给节点指定优先级,那么集群高可用服务将在任意节点间转移。因此,通过创建失败转移域不但可以设定服务在节点间转移的顺序,而且可以限制某个服务仅在失败转移域指定的节点内进行切换。

6、集群配置管理工具

Conga 是一种新的基于网络的集群配置工具,Conga 是通过 web 方式来配置和管理集群节点的。Conga 有两部分组成,分别是 luci 和 ricci,luci 安装在一台独立的计算机上,用于配置和管理集群,ricci 安装在每个集群节点上,Luci 通过 ricci 和集群中的每个节点进行通信。

RHCS 也提供了一些功能强大的集群命令行管理工具,常用的有 clustat、cman_tool、ccs_tool、fence_tool、clusvcadm 等,这些命令的用法将在下面讲述。

7、RedhatGFS

GFS 是 RHCS 为集群系统提供的一个存储解决方案,它允许集群多个节点在块级别上共享存储,每个节点通过共享一个存储空间,保证了访问数据的一致性,更切实的说,GFS 是 RHCS 提供的一个集群文件系统,多个节点同时挂载一个文件系统分区,而文件系统数据不受破坏,这是单一的文件系统不能实现的。

为了实现多个节点对于一个文件系统同时读写操作,GFS 使用锁管理器来管理 I / O 操作,当一个写进程操作一个文件时,这个文件就被锁定,此时不允许其它进程进行读写操作,直到这个写进程正常完成才释放锁,只有当锁被释放后,其它读写进程才能对这个文件进行操作,另外,当一个节点在 GFS 文件系统上修改数据后,这种修改操作会通过 RHCS 底层通信机制立即在其它节点上可见。

在搭建 RHCS 集群时,GFS 一般作为共享存储,运行在每个节点上,并且可以通过 RHCS 管理工具对 GFS 进行配置和管理。这些需要说明的是 RHCS 和 GFS 之间的关系,一般初学者很容易混淆这个概念:运行 RHCS,GFS 不是必须的,只有在需要共享存储时,才需要 GFS 支持,而搭建 GFS 集群文件系统,必须要有 RHCS 的底层支持,所以安装 GFS 文件系统的节点,必须安装 RHCS 组件。

在下一节中,将会讲解简单的 rhcs 部署以及管理。

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2014-06/102770p2.htm

系统环境:

RHEL6.4    iptables 关闭    selinux is disabled

https://access.RedHat.com/site/documentation/en-US 参照文档

注意: 由于本实验环境是在 RHEL 系列,因此将使用红帽自己的 yum 源,配置如下:

[base]

name=yum

baseurl=ftp://192.168.2.22/pub/RHEL6.4

gpgcheck=0

[HA]

name=ha

baseurl=ftp://192.168.2.22/pub/RHEL6.4/HighAvailability

gpgcheck=0

[lb]

name=LB

baseurl=ftp://192.168.2.22/pub/RHEL6.4/LoadBalancer

gpgcheck=0

[Storage]

name=St

baseurl=ftp://192.168.2.22/pub/RHEL6.4/ResilientStorage

gpgcheck=0

[SFS]

name=FS

baseurl=ftp://192.168.2.22/pub/RHEL6.4/ScalableFileSystem

gpgcheck=0

实验将用到三台主机,一台安装 luci 进行配置管理 RHCS 集群,另外两台主机安装 ricci,用来管理集群所用到的服务并且和 luci 进行通信。(ricci 作为计算节点,必须进行时间同步)

luci 管理端:

#yum update luci -y

#/etc/init.d/luci restart        将会提示登录一个地址,访问 luci 界面,默认为用户名和密码 root 用户

ricci 计算节点端:(注意:所有节点之间必须用 hostname 进行解析)

 

#yum install ricci -y

#passwd ricci

#/etc/init.d/ricci restart

#chkconfig ricci on

在 luci 端进行创建集群,并且添加节点:(图)

红帽子 RHCS 套件安装与配置

创建一个集群,并添加 node 节点

红帽子 RHCS 套件安装与配置

红帽子 RHCS 套件安装与配置

添加成功,两个节点正常

红帽子 RHCS 套件安装与配置

查看 node1 详细信息

红帽子 RHCS 套件安装与配置

成功后,使用命令查看

# clustat 可以看到,有 node1 和 node2 节点

Cluster Status for test @ Sat May 17 12:01:23 2014

Member Status: Quorate

Member Name ID Status

node1.example.com 1 Online, Local

node2.example.com 2 Online

根据 luci 管理和配置界面的相关预设配置来进行配置红帽集群套件:(一次进行配置 fence,failover,resources,services)

RHCS 提供的三个核心功能

高可用集群是 RHCS 的核心功能。当应用程序出现故障,或者系统硬件、网络出现故障时,应用可以通过 RHCS 提供的高可用性服务管理组件自动、快速从一个节点切换到另一个节点,节点故障转移功能对客户端来说是透明的,从而保证应用持续、不间断的对外提供服务,这就是 RHCS 高可用集群实现的功能。

RHCS 通过 LVS(LinuxVirtualServer)来提供负载均衡集群,而 LVS 是一个开源的、功能强大的基于 IP 的负载均衡技术,LVS 由负载调度器和服务访问节点组成,通过 LVS 的负载调度功能,可以将客户端请求平均的分配到各个服务节点,同时,还可以定义多种负载分配策略,当一个请求进来时,集群系统根据调度算法来判断应该将请求分配到哪个服务节点,然后,由分配到的节点响应客户端请求,同时,LVS 还提供了服务节点故障转移功能,也就是当某个服务节点不能提供服务时,LVS 会自动屏蔽这个故障节点,接着将失败节点从集群中剔除,同时将新来此节点的请求平滑的转移到其它正常节点上来;而当此故障节点恢复正常后,LVS 又会自动将此节点加入到集群中去。而这一系列切换动作,对用户来说,都是透明的,通过故障转移功能,保证了服务的不间断、稳定运行。

RHCS 通过 GFS 文件系统来提供存储集群功能,GFS 是 GlobalFileSystem 的缩写,它允许多个服务同时去读写一个单一的共享文件系统,存储集群通过将共享数据放到一个共享文件系统中从而消除了在应用程序间同步数据的麻烦,GFS 是一个分布式文件系统,它通过锁管理机制,来协调和管理多个服务节点对同一个文件系统的读写操作。现在用的最多的是 gfs2 版本,GFS 文件系统必须运行在集群上。

RHCS+GFS(红帽 HA+GFS) http://www.linuxidc.com/Linux/2014-04/99574.htm

基于 RHCS+iSCSI+CLVM 实现 Web 服务的共享存储集群架构 http://www.linuxidc.com/Linux/2013-05/84888.htm

RHCS 多节点部署应用企业环境 http://www.linuxidc.com/Linux/2013-05/84456.htm

RedHat 5.8 x64 RHCS Oracle 10gR2 HA 实践配置 http://www.linuxidc.com/Linux/2013-03/81589.htm

RHCS 基于 Java 的 HA 双机热备 http://www.linuxidc.com/Linux/2012-12/76587.htm

图解 RHCS 的安装配置与应用 http://www.linuxidc.com/Linux/2012-11/75111.htm

RHCS 集群的组成

RHCS 是一个集群工具的集合,主要有下面几大部分组成:

1. 集群构架管理器

这是 RHCS 集群的一个基础套件,提供一个集群的基本功能,使各个节点组成集群在一起工作,具体包含分布式集群管理器(CMAN)、成员关系管理、锁管理(DLM)、配置文件管理(CCS)、栅设备(FENCE)。

2. 高可用服务管理器

提供节点服务监控和服务故障转移功能,当一个节点服务出现故障时,将服务转移到另一个健康节点。

3. 集群配置管理工具

RHCS 最新版本通过 LUCI 来配置和管理 RHCS 集群,LUCI 是一个基于 web 的集群配置方式,通过 luci 可以轻松的搭建一个功能强大的集群系统。节点主机可以使用 ricci 来和 luci 管理端进行通信。

4.LinuxVirtualServer

LVS 是一个开源的负载均衡软件,利用 LVS 可以将客户端的请求根据指定的负载策略和算法合理的分配到各个服务节点,实现动态、智能的负载分担。

RHCS 除了上面的几个核心构成,还可以通过下面一些组件来补充 RHCS 集群功能。

5.RedHatGFS(GlobalFileSystem)

GFS 是 Redhat 公司开发的一款集群文件系统,目前的最新版本是 GFS2,GFS 文件系统允许多个服务同时读写一个磁盘分区,通过 GFS 可以实现数据的集中管理,免去了数据同步和拷贝的麻烦,但 GFS 并不能孤立的存在,安装 GFS 需要 RHCS 的底层组件支持。

6.ClusterLogicalVolumeManager

Cluster 逻辑卷管理,即 CLVM,是 LVM 的扩展,这种扩展允许 cluster 中的机器使用 LVM 来管理共享存储。

7.iSCSI

iSCSI 是一种在 Internet 协议上, 特别是以太网上进行数据块传输的标准, 它是一种基于 IPStorage 理论的新型存储技术,RHCS 可以通过 ISCSI 技术来导出和分配共享存储的使用。

RHCS 集群结构

红帽子 RHCS 套件安装与配置

图 1 是典型的 RHCS 集群拓扑结构:整个拓扑结构分为三个层面

最上层是 LVS 负载均衡层,中间一层是 RealServer 层,就是服务节点部分,最后一层是共享存储层,主要用于给 GFS 文件系统提供共享存储空间。

RHCS 集群运行原理及功能介绍

1、分布式集群管理器(CMAN)

ClusterManager,简称 CMAN,是一个分布式集群管理工具,它运行在集群的各个节点上,为 RHCS 提供集群管理任务。

CMAN 用于管理集群成员、消息和通知。它通过监控每个节点的运行状态来了解节点成员之间的关系,当集群中某个节点出现故障,节点成员关系将发生改变,CMAN 及时将这种改变通知底层,进而做出相应的调整。

2、锁管理(DLM)

DistributedLockManager,简称 DLM,表示一个分布式锁管理器,它是 RHCS 的一个底层基础构件,同时也为集群提供了一个公用的锁运行机制,在 RHCS 集群系统中,DLM 运行在集群的每个节点上,GFS 通过锁管理器的锁机制来同步访问文件系统元数据。CLVM 通过锁管理器来同步更新数据到 LVM 卷和卷组。

DLM 不需要设定锁管理服务器,它采用对等的锁管理方式,大大的提高了处理性能。同时,DLM 避免了当单个节点失败需要整体恢复的性能瓶颈,另外,DLM 的请求都是本地的,不需要网络请求,因而请求会立即生效。最后,DLM 通过分层机制,可以实现多个锁空间的并行锁模式。

3、配置文件管理(CCS)

ClusterConfigurationSystem,简称 CCS,主要用于集群配置文件管理和配置文件在节点之间的同步。有时候,luci 管理界面可能由于网络等方面的以素并不是那么畅快,CCS 就显得很必要了。CCS 运行在集群的每个节点上,监控每个集群节点上的单一配置文件 /etc/cluster/cluster.conf 的状态,当这个文件发生任何变化时,都将此变化更新到集群中的每个节点,时刻保持每个节点的配置文件同步。例如,管理员在节点 A 上更新了集群配置文件,CCS 发现 A 节点的配置文件发生变化后,马上将此变化传播到其它节点上去。

rhcs 的配置文件是 cluster.conf,它是一个 xml 文件,具体包含集群名称、集群节点信息、集群资源和服务信息、fence 设备等,这个会在后面讲述。

4、栅设备(FENCE)

FENCE 设备是 RHCS 集群中必不可少的一个组成部分,通过 FENCE 设备可以避免因出现不可预知的情况而造成的“脑裂”现象,FENCE 设备的出现,就是为了解决类似这些问题,Fence 设备主要就是通过服务器或存储本身的硬件管理接口,或者外部电源管理设备,来对服务器或存储直接发出硬件管理指令,将服务器重启或关机,或者与网络断开连接。

FENCE 的工作原理是:当意外原因导致主机异常或者宕机时,备机会首先调用 FENCE 设备,然后通过 FENCE 设备将异常主机重启或者从网络隔离,当 FENCE 操作成功执行后,返回信息给备机,备机在接到 FENCE 成功的信息后,开始接管主机的服务和资源。这样通过 FENCE 设备,将异常节点占据的资源进行了释放,保证了资源和服务始终运行在一个节点上。

RHCS 的 FENCE 设备可以分为两种:内部 FENCE 和外部 FENCE,常用的内部 FENCE 有 IBMRSAII 卡,HP 的 iLO 卡,还有 IPMI 的设备等,外部 fence 设备有 UPS、SANSWITCH、NETWORKSWITCH 等

5、高可用服务管理器

高可用性服务管理主要用来监督、启动和停止集群的应用、服务和资源。它提供了一种对集群服务的管理能力,当一个节点的服务失败时,高可用性集群服务管理进程可以将服务从这个失败节点转移到其它健康节点上来,并且这种服务转移能力是自动、透明的。

RHCS 通过 rgmanager 来管理集群服务,rgmanager 运行在每个集群节点上,在服务器上对应的进程为 clurgmgrd。

在一个 RHCS 集群中,高可用性服务包含集群服务和集群资源两个方面,集群服务其实就是应用服务,例如 apache、mysql 等,集群资源有很多种,例如一个 IP 地址、一个运行脚本、ext3/GFS 文件系统等。

在 RHCS 集群中,高可用性服务是和一个失败转移域结合在一起的,所谓失败转移域是一个运行特定服务的集群节点的集合。在失败转移域中,可以给每个节点设置相应的优先级,通过优先级的高低来决定节点失败时服务转移的先后顺序,如果没有给节点指定优先级,那么集群高可用服务将在任意节点间转移。因此,通过创建失败转移域不但可以设定服务在节点间转移的顺序,而且可以限制某个服务仅在失败转移域指定的节点内进行切换。

6、集群配置管理工具

Conga 是一种新的基于网络的集群配置工具,Conga 是通过 web 方式来配置和管理集群节点的。Conga 有两部分组成,分别是 luci 和 ricci,luci 安装在一台独立的计算机上,用于配置和管理集群,ricci 安装在每个集群节点上,Luci 通过 ricci 和集群中的每个节点进行通信。

RHCS 也提供了一些功能强大的集群命令行管理工具,常用的有 clustat、cman_tool、ccs_tool、fence_tool、clusvcadm 等,这些命令的用法将在下面讲述。

7、RedhatGFS

GFS 是 RHCS 为集群系统提供的一个存储解决方案,它允许集群多个节点在块级别上共享存储,每个节点通过共享一个存储空间,保证了访问数据的一致性,更切实的说,GFS 是 RHCS 提供的一个集群文件系统,多个节点同时挂载一个文件系统分区,而文件系统数据不受破坏,这是单一的文件系统不能实现的。

为了实现多个节点对于一个文件系统同时读写操作,GFS 使用锁管理器来管理 I / O 操作,当一个写进程操作一个文件时,这个文件就被锁定,此时不允许其它进程进行读写操作,直到这个写进程正常完成才释放锁,只有当锁被释放后,其它读写进程才能对这个文件进行操作,另外,当一个节点在 GFS 文件系统上修改数据后,这种修改操作会通过 RHCS 底层通信机制立即在其它节点上可见。

在搭建 RHCS 集群时,GFS 一般作为共享存储,运行在每个节点上,并且可以通过 RHCS 管理工具对 GFS 进行配置和管理。这些需要说明的是 RHCS 和 GFS 之间的关系,一般初学者很容易混淆这个概念:运行 RHCS,GFS 不是必须的,只有在需要共享存储时,才需要 GFS 支持,而搭建 GFS 集群文件系统,必须要有 RHCS 的底层支持,所以安装 GFS 文件系统的节点,必须安装 RHCS 组件。

在下一节中,将会讲解简单的 rhcs 部署以及管理。

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2014-06/102770p2.htm

安装 fence(解决多个节点间因为互相争夺资源而产生的脑裂问题,当某节点出现问题,会将节点立即拔电重启)

  本节实验将采用 KVM 提供的虚拟 fence

在 luci 端:

# yum install fence-virt.x86_64 fence-virtd.x86_64 fence-virtd-libvirt.x86_64 fence-virtd-multicast.x86_64 -y

#/etc/fence_virt.conf    fence 配置文件,默认不是规则的

# fence_virtd -c          交互式配置 fence 文件

Interface [none]: br0  在选择接口时选择 br0,其余都默认

#mkdir /etc/cluster                默认不存在 cluster 目录来存放 key 文件,自己建立

#dd if=/dev/urandom of=/etc/cluster/fence.xvm.key bs=128 count=1

1+0 records in

1+0 records out

128 bytes (128 B) copied, 0.000378488 s, 338 kB/s

# ll /etc/cluster/fence.xvm.key

# scp /etc/cluster/fence.xvm.key node1:/etc/cluster/                  拷贝到两个节点,用来通信的

# scp /etc/cluster/fence.xvm.key node2:/etc/cluster/

 

# /etc/init.d/fence_virtd restart 开启 fence 服务(生产环境中自动开启哦)

# netstat -anulp |grep fence*

udp        0      0 0.0.0.0:1229                0.0.0.0:*                              18904/fence_virtd 

登录 luci 管理界面,增加 fence 设备,并且为每个 node 添加 fence 设置

# fence_xvm -H node1          测试 fence 功能

注意:如果不能 node 节点不能启动,注意查看 rgmanager,cman ricci,clvm 等服务的自动启动

# tail -f /var/log/cluster/fenced.log

May 17 11:59:55 fenced fenced 3.0.12.1 started

May 17 12:19:15 fenced fenced 3.0.12.1 started

May 17 15:25:58 fenced fencing node node1

May 17 15:26:00 fenced fence node1 success

May 17 15:28:24 fenced fenced 3.0.12.1 started

3. 配置故障转换域
故障切换域是一个命名的集群节点子集, 它可在节点失败事件中运行集群服务

在由几个成员组成的集群中, 使用限制故障切换域可最大程度降低设置集群以便运行集群服务的工作 (比如 httpd), 它要求您在运行该集群服务的所有成员中进行完全一致的配置。您不需要将整个集群设置为运行该集群服务, 只要设置与该集群服务关联的限制故障切换域中的成员即可。
故障转移域,权值越低,优先级越高

红帽子 RHCS 套件安装与配置

4. 配置全局集群资源

增加 VIP,apcache,服务(通过 script 完成)

红帽子 RHCS 套件安装与配置

红帽子 RHCS 套件安装与配置

红帽子 RHCS 套件安装与配置

红帽子 RHCS 套件安装与配置

5. 配置资源组

红帽子 RHCS 套件安装与配置

为 webserver 分别添加子资源:VIP,httpd 服务,以及共享磁盘

# clustat                                                            查看资源现在在 node1 上运行
 Member Name                                            ID  Status
 —— —-                                            —- ——
 node1                                                      1 Online, Local, rgmanager
 node2                                                      2 Online, rgmanager
 Service Name                                  Owner (Last)                                  State       
 ——- —-                                  —– ——                                  —–       
 service:webserver                              node1                                          started 

测试:

(配置了故障转移域的默认只开启优先级高 node1 的 httpd 服务, 主机 httpd 异常关闭后在开启优先级低的 node2)
注意:在测试中,httpd 服务不需要启动和重启,资源完全被 luci 接管
访问 ip 资源(VIP)192.168.2.88 访问的使 node1 发布的资源(http)

测试:关闭服务和关闭网卡,测试服务的发布
(高可用性的性能测试 99)
1. 关闭 node1 的 httpd 服务,发现会自动被 node2 接管(故障转移域)
2. 发现,当关闭 node2 网卡的时候,由于配置了 fence 设备,node2 会自动重启,资源会由 node1 接管
3.# echo c > /proc/sysrq-trigger
在 node1 上给内核导入参数,测试崩溃效果。node2 会自动接管资源,node1 会必 fence 自动重启,之后 node1 会重新接管资源(faildomain 的自动回切功能)

clusvcadm -d httpd        手动关闭服务组
clusvcadm -e httpd            开启服务组
clusvcadm -r httpd -m node1    将服务定位到 node1

详细命令查看官网

使用 RHCS 套件构建一个简单的 web 集群已经完成。

正文完
星哥说事-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计12895字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中