阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Keepalived基础知识详细完整总结

230次阅读
没有评论

共计 23747 个字符,预计需要花费 60 分钟才能阅读完成。

keepalived 介绍
keepalived 观察其名可知,保持存活,在网络里面就是保持在线了,也就是所谓的高可用或热备,它集群管理中保证集群高可用的一个服务软件,其功能类似于 heartbeat,用来防止单点故障(单点故障是指一旦某一点出现故障就会导致整个系统架构的不可用) 的发生。说到 keepalived 就不得不说 VRRP 协议,可以说这个协议就是 keepalived 实现的基础,那么首先我们来看看 VRRP 协议。

VRRP 协议介绍
学过网络的朋友都知道,网络在设计的时候必须考虑到冗余容灾,包括线路冗余,设备冗余等,防止网络存在单点故障,那在路由器或三层交换机处实现冗余就显得尤为重要。
在网络里面有个协议就是来做这事的,这个协议就是 VRRP 协议,Keepalived 就是巧用 VRRP 协议来实现高可用性 (HA) 的发生。
VRRP 全称 Virtual Router Redundancy Protocol,即虚拟路由冗余协议 。对于 VRRP,需要清楚知道的是:
1)VRRP 是用来实现路由器冗余的协议。
2)VRRP 协议是为了消除在静态缺省路由环境下路由器单点故障引起的网络失效而设计的主备模式的协议,使得发生故障而进行设计设备功能切换时可以不影响内外数据通信,不需要再修改内部网络的网络参数。
3)VRRP 协议需要具有 IP 备份,优先路由选择,减少不必要的路由器通信等功能。
4)VRRP 协议将两台或多台路由器设备虚拟成一个设备,对外提供虚拟路由器 IP(一个或多个)。然而,在路由器组内部,如果实际拥有这个对外 IP 的路由器如果工作正常的话,就是 master,或者是通过算法选举产生的,MASTER 实现针对虚拟路由器 IP 的各种网络功能,如 ARP 请求,ICMP,以及数据的转发等,其他设备不具有该 IP,状态是 BACKUP。除了接收 MASTER 的 VRRP 状态通告信息外,不执行对外的网络功能,当主级失效时,BACKUP 将接管原先 MASTER 的网络功能。
5)VRRP 协议配置时,需要配置每个路由器的虚拟路由 ID(VRID) 和优先权值,使用 VRID 将路由器进行分组,具有相同 VRID 值的路由器为同一个组,VRID 是一个 0 -255 的整整数,;同一个组中的路由器通过使用优先权值来选举 MASTER。,优先权大者为 MASTER,优先权也是一个 0 -255 的正整数。

keepalived 工作原理
keepalived 可提供 vrrp 以及 health-check 功能,可以只用它提供双机浮动的 vip(vrrp 虚拟路由功能),这样可以简单实现一个双机热备高可用功能;keepalived 是以 VRRP 虚拟路由冗余协议为基础实现高可用的,可以认为是实现路由器高可用的协议,即将 N 台提供相同功能的路由器组成一个路由器组,这个组里面有一个 master 和多个 backup,master 上面有一个对外提供服务的 vip(该路由器所在局域网内其他机器的默认路由为该 vip),master 会发组播,当 backup 收不到 VRRP 包时就认为 master 宕掉了,这时就需要根据 VRRP 的优先级来选举一个 backup 当 master。这样的话就可以保证路由器的高可用了。

下图是 keepalived 的组件图

Keepalived 基础知识详细完整总结

keepalived 也是模块化设计,不同模块复杂不同的功能,它主要有三个模块,分别是 core、check 和 VRRP,其中:
core 模块:为 keepalived 的核心组件,负责主进程的启动、维护以及全局配置文件的加载和解析;
check:负责健康检查,包括常见的各种检查方式;
VRRP 模块:是来实现 VRRP 协议的。

system call: 系统调用
watch dog: 监控 check 和 vrrp 进程的看管者,check 负责检测器子进程的健康状态,当其检测到 master 上的服务不可用时则通告 vrrp 将其转移至 backup 服务器上。

除此之外,keepalived 还有下面两个组件:
libipfwc:iptables(ipchains)库,配置 LVS 会用到
libipvs*:配置 LVS 会用到
注意,keepalived 和 LVS 完全是两码事,只不过他们各负其责相互配合而已。

keepalived 正常启动的时候,共启动 3 个进程:
一个是父进程,负责监控其子进程;一个是 VRRP 子进程,另外一个是 checkers 子进程;
两个子进程都被系统 watchlog 看管,两个子进程各自负责复杂自己的事。
Healthcheck 子进程检查各自服务器的健康状况,,例如 http,lvs。如果 healthchecks 进程检查到 master 上服务不可用了,就会通知本机上的 VRRP 子进程,让他删除通告,并且去掉虚拟 IP,转换为 BACKUP 状态。

Keepalived 作用
Keepalived 主要用作 RealServer 的健康状态检查以及 LoadBalance 主机和 BackUP 主机之间 failover 的实现。Keepalived 的作用是检测 web 服务器的状态,如果有一台 web 服务器死机,或工作出现故障,Keepalived 将检测到,并将有故障的 web 服务器从系统中剔除,当 web 服务器工作正常后 Keepalived 自动将 web 服务器加入到服务器群中,这些工作全部自动完成,不需要人工干涉,需要人工做的只是修复故障的 web 服务器。

—————————————————————————————————————————-
Keepalived 和 Heartbeat 之间的对比
1)Keepalived 使用更简单:从安装、配置、使用、维护等角度上对比,Keepalived 都比 Heartbeat 要简单得多,尤其是 Heartbeat2.1.4 后拆分成 3 个子项目,安装、配置、使用都比较复杂,尤其是出问题的时候,都不知道具体是哪个子系统出问题了;而 Keepalived 只有 1 个安装文件、1 个配置文件,配置文件也简单很多;
2)Heartbeat 功能更强大:Heartbeat 虽然复杂,但功能更强大,配套工具更全,适合做大型集群管理,而 Keepalived 主要用于集群倒换,基本没有管理功能;
3)协议不同:Keepalived 使用 VRRP 协议进行通信和选举,Heartbeat 使用心跳进行通信和选举;Heartbeat 除了走网络外,还可以通过串口通信,貌似更可靠;
Keepalived 使用的 vrrp 协议方式,虚拟路由冗余协议;Heartbeat 是基于主机或网络的服务的高可用方式;
Keepalived 的目的是模拟路由器的双机;Heartbeat 的目的是用户 service 的双机
4)使用方式基本类似:如果要基于两者设计高可用方案,最终都要根据业务需要写自定义的脚本,Keepalived 的脚本没有任何约束,随便怎么写都可以;Heartbeat 的脚本有约束,即要支持 service start/stop/restart 这种方式,而且 Heartbeart 提供了很多默认脚本,简单的绑定 ip,启动 apache 等操作都已经有了;

使用建议:
优先使用 Keepalived,当 Keepalived 不够用的时候才选择 Heartbeat
lvs 的高可用建议用 Keepavlived
业务的高可用用 Heartbeat
————————————————————————————————————————–

keepalived 的配置文件
keepalived 只有一个配置文件 keepalived.conf,配置文件里面主要包括以下几个配置项,分别是 global_defs、static_ipaddress、static_routes、VRRP_script、VRRP_instance 和 virtual_server。
总的来说,keepalived 主要有三类区域配置,注意不是三种配置文件,是一个配置文件里面三种不同类别的配置区域:
1)全局配置(Global Configuration)
2)VRRPD 配置
3)LVS 配置

下面就重点来说说这三类区域的配置:
1)全局配置
全局配置又包括两个子配置:
全局定义 (global definition)
静态路由配置(static ipaddress/routes)

 

1– 全局定义 (global definition) 配置范例:

 

global_defs {
notification_email {
admin@example.com
}
 
notification_email_from admin@example.com
smtp_server 127.0.0.1
stmp_connect_timeout 30
router_id node1
}

 

全局配置解析
global_defs 全局配置标识,表面这个区域{} 是全局配置

 

notification_email {
admin@example.com
admin@ywlm.net
}

 

表示 keepalived 在发生诸如切换操作时需要发送 email 通知,以及 email 发送给哪些邮件地址,邮件地址可以多个,每行一个
notification_email_from admin@example.com
表示发送通知邮件时邮件源地址是谁
smtp_server 127.0.0.1
表示发送 email 时使用的 smtp 服务器地址,这里可以用本地的 sendmail 来实现
smtp_connect_timeout 30
连接 smtp 连接超时时间
router_id node1
机器标识

 

2– 静态地址和路由配置范例

 

static_ipaddress {
192.168.1.1/24 brd + dev eth0 scope global
192.168.1.2/24 brd + dev eth1 scope global
}
 
static_routes {
src $SRC_IP to $DST_IP dev $SRC_DEVICE
src $SRC_IP to $DST_IP via $GW dev $SRC_DEVICE
}

 

这里实际上和系统里面用命令配置 IP 地址和路由的曹一样,例如:
192.168.1.1/24 brd + dev eth0 scope global 相当于: ip addr add 192.168.1.1/24 brd + dev eth0 scope global
就是给 eth0 配置 IP 地址
路由同理
一般这个区域不需要配置
这里实际上就是给服务器配置真实的 IP 地址和路由的,在复杂的环境下可能需要配置,一般不会用这个来配置,我们可以直接用 vi /etc/sysconfig/network-script/ifcfg-eth1 来配置,切记这里可不是 VIP 哦,不要搞混淆了,切记切记!

 

2)VRRPD 配置
VRRPD 配置包括三个类:
VRRP 同步组(synchroization group)
VRRP 实例(VRRP Instance)
VRRP 脚本

 

1–VRRP 同步组 (synchroization group) 配置范例

 

vrrp_sync_group VG_1 {
group {
http
MySQL
}
notify_master /path/to/to_master.sh
notify_backup /path_to/to_backup.sh
notify_fault“/path/fault.sh VG_1”
notify /path/to/notify.sh
smtp_alert
}

 

其中:
group {
http
mysql
}
http 和 mysql 是实例名和���面的实例名一致

 

notify_master /path/to/to_master.sh:表示当切换到 master 状态时,要执行的脚本
notify_backup /path_to/to_backup.sh:表示当切换到 backup 状态时,要执行的脚本
notify_fault“/path/fault.sh VG_1”
notify /path/to/notify.sh:
smtp alter 表示切换时给 global defs 中定义的邮件地址发送右键通知

 

2–VRRP 实例 (instance) 配置范例

 

vrrp_instance http {
state MASTER
interface eth0
dont_track_primary
track_interface {
eth0
eth1
}
mcast_src_ip <IPADDR>
garp_master_delay 10
virtual_router_id 51
priority 100
advert_int 1
authentication {
auth_type PASS
autp_pass 1234
}
virtual_ipaddress {
#<IPADDR>/<MASK> brd <IPADDR> dev <STRING> scope <SCOPT> label <LABEL>
192.168.200.17/24 dev eth1
192.168.200.18/24 dev eth2 label eth2:1
}
virtual_routes {
# src <IPADDR> [to] <IPADDR>/<MASK> via|gw <IPADDR> dev <STRING> scope <SCOPE> tab
src 192.168.100.1 to 192.168.109.0/24 via 192.168.200.254 dev eth1
192.168.110.0/24 via 192.168.200.254 dev eth1
192.168.111.0/24 dev eth2
192.168.112.0/24 via 192.168.100.254
}
nopreempt
preemtp_delay 300
debug
}

 

state:state 指定 instance(Initial)的初始状态,就是说在配置好后,这台服务器的初始状态就是这里指定的,但这里指定的不算,还是得要通过竞选通过优先级来确定,里如果这里设置为 master,但如若他的优先级不及另外一台,那么这台在发送通告时,会发送自己的优先级,另外一台发现优先级不如自己的高,那么他会就回抢占为 master
interface:实例绑定的网卡,因为在配置虚拟 IP 的时候必须是在已有的网卡上添加的
dont track primary:忽略 VRRP 的 interface 错误
track interface:跟踪接口,设置额外的监控,里面任意一块网卡出现问题,都会进入故障(FAULT) 状态,例如,用 nginx 做均衡器的时候,内网必须正常工作,如果内网出问题了,这个均衡器也就无法运作了,所以必须对内外网同时做健康检查
mcast src ip:发送多播数据包时的源 IP 地址,这里注意了,这里实际上就是在那个地址上发送 VRRP 通告,这个非常重要,一定要选择稳定的网卡端口来发送,这里相当于 heartbeat 的心跳端口,如果没有设置那么就用默认的绑定的网卡的 IP,也就是 interface 指定的 IP 地址
garp master delay:在切换到 master 状态后,延迟进行免费的 ARP(gratuitous ARP) 请求
virtual router id:这里设置 VRID,这里非常重要,相同的 VRID 为一个组,他将决定多播的 MAC 地址
priority 100:设置本节点的优先级,优先级高的为 master
advert int:检查间隔,默认为 1 秒
virtual ipaddress:这里设置的就是 VIP,也就是虚拟 IP 地址,他随着 state 的变化而增加删除,当 state 为 master 的时候就添加,当 state 为 backup 的时候删除,这里主要是有优先级来决定的,和 state 设置的值没有多大关系,这里可以设置多个 IP 地址
virtual routes:原理和 virtual ipaddress 一样,只不过这里是增加和删除路由
lvs sync daemon interface:lvs syncd 绑定的网卡
authentication:这里设置认证
auth type:认证方式,可以是 PASS 或 AH 两种认证方式
auth pass:认证密码
nopreempt:设置不抢占,这里只能设置在 state 为 backup 的节点上,而且这个节点的优先级必须别另外的高
preempt delay:抢占延迟
debug:debug 级别
notify master:和 sync group 这里设置的含义一样,可以单独设置,例如不同的实例通知不同的管理人员,http 实例发给网站管理员,mysql 的就发邮件给 DBA

 

3–VRRP 脚本范例

 

vrrp_script check_running {
  script“/usr/local/bin/check_running”
  interval 10
  weight 10
}
vrrp_instance http {
  state BACKUP
  smtp_alert
  interface eth0
  virtual_router_id 101
  priority 90
  advert_int 3
  authentication {
  auth_type PASS
  auth_pass whatever
  }
  virtual_ipaddress {
  1.1.1.1
  }
  track_script {
  check_running weight 20
  }
}

 

首先在 vrrp_script 区域定义脚本名字和脚本执行的间隔和脚本执行的优先级变更 vrrp_script check_running {

 

script“/usr/local/bin/check_running”
interval 10    #脚本执行间隔
weight 10      #脚本结果导致的优先级变更:10 表示优先级 +10;-10 则表示优先级 -10
}

 

然后在实例 (vrrp_instance) 里面引用,有点类似脚本里面的函数引用一样:先定义,后引用函数名

 

track_script {
check_running weight 20
}

 

注意:VRRP 脚本 (vrrp_script) 和 VRRP 实例 (vrrp_instance) 属于同一个级别

 

3)LVS 配置
如果你没有配置 LVS+keepalived,那么无需配置这段区域,如果你用的是 nginx 来代替 LVS,这无需配置这款,这里的 LVS 配置是专门为 keepalived+LVS 集成准备的。
注意了,这里 LVS 配置并不是指真的安装 LVS 然后用 ipvsadm 来配置它,而是用 keepalived 的配置文件来代替 ipvsadm 来配置 LVS,这样会方便很多,一个配置文件搞定这些,维护方便,配置方便是也!
这里 LVS 配置也有两个配置
一个是虚拟主机组配置
一个是虚拟主机配置

 

1– 虚拟主机组配置文件详解
这个配置是可选的,根据需求来配置吧,这里配置主要是为了让一台 realserver 上的某个服务可以属于多个 Virtual Server,并且只做一次健康检查:
virtual_server_group <STRING> {# VIP port <IPADDR> <PORT> <IPADDR> <PORT> fwmark <INT>}

 

2– 虚拟主机配置
virtual server 可以以下面三种的任意一种来配置:
a)virtual server IP port
b)virtual server fwmark int
c)virtual server group string

 

下面以第一种比较常用的方式来配详细解说一下:

 

virtual_server 192.168.1.2 80 {#设置一个 virtual server: VIP:Vport
delay_loop 3                                                  # service polling 的 delay 时间,即服务轮询的时间间隔
 
lb_algo rr|wrr|lc|wlc|lblc|sh|dh                        #LVS 调度算法
lb_kind NAT|DR|TUN                                      #LVS 集群模式                     
persistence_timeout 120                                #会话保持时间(秒为单位),即以用户在 120 秒内被分配到同一个后端 realserver
persistence_granularity <NETMASK>              #LVS 会话保持粒度,ipvsadm 中的 - M 参数,默认是 0xffffffff,即每个客户端都做会话保持
protocol TCP                                                  #健康检查用的是 TCP 还是 UDP
ha_suspend                                                  #suspendhealthchecker’s activity
virtualhost <string>                                      #HTTP_GET 做健康检查时,检查的 web 服务器的虚拟主机(即 host:头)
 
sorry_server <IPADDR> <PORT>                #备用机,就是当所有后端 realserver 节点都不可用时,就用这里设置的,也就是临时把所有的请求都发送到这里啦
 
real_server <IPADDR> <PORT>                    #后端真实节点主机的权重等设置,主要,后端有几台这里就要设置几个
{
weight 1                                                        #给每台的权重,0 表示失效(不知给他转发请求知道他恢复正常),默认是 1
inhibit_on_failure                                            #表示在节点失败后,把他权重设置成 0,而不是冲 IPVS 中删除
 
notify_up <STRING> | <QUOTED-STRING>  #检查服务器正常(UP) 后,要执行的脚本
notify_down <STRING> | <QUOTED-STRING> #检查服务器失败(down) 后,要执行的脚本
HTTP_GET                                                    #健康检查方式
{
url {#要坚持的 URL,可以有多个
path /                                                            #具体路径
digest <STRING>                                           
status_code 200                                            #返回状态码
}
connect_port 80                                            #监控检查的端口
 
bindto <IPADD>                                            #健康检查的 IP 地址
connect_timeout  3                                      #连接超时时间
nb_get_retry 3                                              #重连次数
delay_before_retry 2                                      #重连间隔
} # END OF HTTP_GET|SSL_GET
 
# 下面是常用的健康检查方式,健康检查方式一共有 HTTP_GET|SSL_GET|TCP_CHECK|SMTP_CHECK|MISC_CHECK 这些
#TCP 方式
TCP_CHECK {
connect_port 80
bindto 192.168.1.1
connect_timeout 4
} # TCP_CHECK
 
# SMTP 方式,这个可以用来给邮件服务器做集群
SMTP_CHECK
host {
connect_ip <IP ADDRESS>
connect_port <PORT>                                    #默认检查 25 端口
14 KEEPALIVED
bindto <IP ADDRESS>
}
connect_timeout <INTEGER>
retry <INTEGER>
delay_before_retry <INTEGER>
#“smtp HELO”ž|·-ë꧌à”
helo_name <STRING>|<QUOTED-STRING>
} #SMTP_CHECK
 
#MISC 方式,这个可以用来检查很多服务器只需要自己会些脚本即可
MISC_CHECK
{
misc_path <STRING>|<QUOTED-STRING> #外部程序或脚本
misc_timeout <INT>                                    #脚本或程序执行超时时间
 
misc_dynamic                                              #这个就很好用了,可以非常精确的来调整权重,是后端每天服务器的压力都能均衡调配,这个主要是通过执行的程序或脚本返回的状态代码来动态调整 weight 值,使权重根据真实的后端压力来适当调整,不过这需要有过硬的脚本功夫才行哦
# 返回 0:健康检查没问题,不修改权重
# 返回 1:健康检查失败,权重设置为 0
#返回 2 -255:健康检查没问题,但是权重却要根据返回代码修改为返回码 -2,例如如果程序或脚本执行后返回的代码为 200,# 那么权重这回被修改为 200-2
}
} # Realserver
} # Virtual Server

 

================================ 小案例 分享 =============================

 

172.16.60.205 作为 web-master 主节点, 172.16.60.206 作为 web-slave 从节点, 两节点上都部署 nginx.
现在在两节点上部署 keepalived, 只做节点故障时 vip 转移功能, 不做负载均衡功能.
vip 为: 172.16.60.129
 
1) 主从两节点部署 nginx, 安装和配置过程省略. 配置一样, 访问内容一致!
yum 安装的 nginx,  启动命令:  /etc/init.d/nginx start
http://172.16.60.205/ 和 http://172.16.60.205/ 均可以正常访问.
 
2) 主从两节点安装 keepalived (两个节点都要安装)
[root@web-master ~]# yum install -y openssl-devel
[root@web-master ~]# cd /usr/local/src/
[root@web-master src]# wget http://www.keepalived.org/software/keepalived-1.3.5.tar.gz
[root@web-master src]# tar -zvxf keepalived-1.3.5.tar.gz
[root@web-master src]# cd keepalived-1.3.5
[root@web-master keepalived-1.3.5]# ./configure –prefix=/usr/local/keepalived
[root@web-master keepalived-1.3.5]# make && make install
         
[root@web-master keepalived-1.3.5]# cp /usr/local/src/keepalived-1.3.5/keepalived/etc/init.d/keepalived /etc/rc.d/init.d/
[root@web-master keepalived-1.3.5]# cp /usr/local/keepalived/etc/sysconfig/keepalived /etc/sysconfig/
[root@web-master keepalived-1.3.5]# mkdir /etc/keepalived/
[root@web-master keepalived-1.3.5]# cp /usr/local/keepalived/etc/keepalived/keepalived.conf /etc/keepalived/
[root@web-master keepalived-1.3.5]# cp /usr/local/keepalived/sbin/keepalived /usr/sbin/
[root@web-master keepalived-1.3.5]# echo “/etc/init.d/keepalived start” >> /etc/rc.local
   
[root@web-master keepalived-1.3.5]# chmod +x /etc/rc.d/init.d/keepalived     
[root@web-master keepalived-1.3.5]# chkconfig keepalived on                 
         
3) keepalived 配置
==========web-master 主节点的配置 ==========
[root@web-master ~]# cd /etc/keepalived/
[root@web-master keepalived]# cp keepalived.conf keepalived.conf.bak
[root@web-master keepalived]# >keepalived.conf
[root@web-master keepalived]# vim keepalived.conf
! Configuration File for keepalived
   
global_defs {
  router_id LVS_Master
}
   
vrrp_instance VI_1 {
    state MASTER              #指定 instance 初始状态,实际根据优先级决定.backup 节点不一样
    interface eth0            #虚拟 IP 所在网
    virtual_router_id 51      #VRID,相同 VRID 为一个组,决定多播 MAC 地址
    priority 100              #优先级,另一台改为 90.backup 节点不一样
    advert_int 1              #检查间隔
    authentication {
        auth_type PASS        #认证方式,可以是 pass 或 ha
        auth_pass 1111        #认证密码
    }
    virtual_ipaddress {
        172.16.60.129        #VIP 地址
    }
}
 
==========web-slave 从节点的配置 ==========
[root@web-slave ~]# cd /etc/keepalived/
[root@web-slave keepalived]# cp keepalived.conf keepalived.conf.bak
[root@web-slave keepalived]# >keepalived.conf
[root@web-slave keepalived]# vim keepalived.conf
! Configuration File for keepalived
   
global_defs {
  router_id LVS_Backup
}
   
vrrp_instance VI_1 {
    state BACKUP         
    interface eth0       
    virtual_router_id 51 
    priority 90         
    advert_int 1         
    authentication {
        auth_type PASS   
        auth_pass 1111   
    }
    virtual_ipaddress {
        172.16.60.129 
    }
}
 
4) 分别启动主从节点的 keepalived 服务
 
启动主节点 keepalived 服务
[root@web-master keepalived]# /etc/init.d/keepalived start
Starting keepalived:                                      [OK]
[root@web-master keepalived]# ps -ef|grep keepalived
root    13529    1  0 16:36 ?        00:00:00 keepalived -D
root    13530 13529  0 16:36 ?        00:00:00 keepalived -D
root    13532 13529  0 16:36 ?        00:00:00 keepalived -D
root    13536  9799  0 16:36 pts/1    00:00:00 grep keepalived
 
启动从节点 keepalived 服务
[root@web-slave keepalived]# /etc/init.d/keepalived start
Starting keepalived:                                      [OK]
[root@web-slave keepalived]# ps -ef|grep keepalived
root      3120    1  0 16:37 ?        00:00:00 keepalived -D
root      3121  3120  0 16:37 ?        00:00:00 keepalived -D
root      3123  3120  0 16:37 ?        00:00:00 keepalived -D
root      3128 27457  0 16:37 pts/2    00:00:00 grep keepalived
 
查看 vip 资源情况 (默认 vip 是在主节点上的)
[root@web-master keepalived]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host
      valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
    link/ether 00:50:56:88:43:f8 brd ff:ff:ff:ff:ff:ff
    inet 172.16.60.205/24 brd 172.16.60.255 scope global eth0
    inet 172.16.60.129/32 scope global eth0
    inet6 fe80::250:56ff:fe88:43f8/64 scope link
      valid_lft forever preferred_lft forever
 
从节点没有 vip 资源
[root@web-slave keepalived]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host
      valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
    link/ether 00:50:56:ac:50:9b brd ff:ff:ff:ff:ff:ff
    inet 172.16.60.206/24 brd 172.16.60.255 scope global eth0
    inet6 fe80::250:56ff:feac:509b/64 scope link
      valid_lft forever preferred_lft forever
 
5) keepalived 实现故障转移 (转移 vip 资源)
假设主节点宕机或 keepalived 服务挂掉, 则 vip 资源就会自动转移到从节点
[root@web-master keepalived]# /etc/init.d/keepalived stop
Stopping keepalived:                                      [OK]
[root@web-master keepalived]# ps -ef|grep keepalived
root    13566  9799  0 16:40 pts/1    00:00:00 grep keepalived
[root@web-master keepalived]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host
      valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
    link/ether 00:50:56:88:43:f8 brd ff:ff:ff:ff:ff:ff
    inet 172.16.60.205/24 brd 172.16.60.255 scope global eth0
    inet6 fe80::250:56ff:fe88:43f8/64 scope link
      valid_lft forever preferred_lft forever
 
则从节点这边就会接管 vip
[root@web-slave keepalived]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host
      valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
    link/ether 00:50:56:ac:50:9b brd ff:ff:ff:ff:ff:ff
    inet 172.16.60.206/24 brd 172.16.60.255 scope global eth0
    inet 172.16.60.129/32 scope global eth0
    inet6 fe80::250:56ff:feac:509b/64 scope link
      valid_lft forever preferred_lft forever
 
接着再重启主节点的 keepalived 服务, 即主节点故障恢复后, 就会重新抢回 vip (根据配置里的优先级决定的)
[root@web-master keepalived]# /etc/init.d/keepalived start
Starting keepalived:                                      [OK]
[root@web-master keepalived]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host
      valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
    link/ether 00:50:56:88:43:f8 brd ff:ff:ff:ff:ff:ff
    inet 172.16.60.205/24 brd 172.16.60.255 scope global eth0
    inet 172.16.60.129/32 scope global eth0
    inet6 fe80::250:56ff:fe88:43f8/64 scope link
      valid_lft forever preferred_lft forever
 
这时候, 从节点的 vip 就消失了
[root@web-slave keepalived]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host
      valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
    link/ether 00:50:56:ac:50:9b brd ff:ff:ff:ff:ff:ff
    inet 172.16.60.206/24 brd 172.16.60.255 scope global eth0
    inet6 fe80::250:56ff:feac:509b/64 scope link
      valid_lft forever preferred_lft forever
 
以上操作, keepalived 仅仅实现了两台机器的 vip 的故障转移功能, 即实现了双机热备, 避免了单点故障.
即 keepalived 配置里仅仅只是在宕机 (或 keepalived 服务挂掉) 后才实现 vip 转移, 并没有实现所监控应用故障时的 vip 转移.
比如案例中两台机器的 nginx, 可以监控 nginx, 当 nginx 挂掉后, 实现自启动, 如果强启失败, 则将 vip 转移到对方节点.
这种情况的配置可以参考另一篇博文: https://www.linuxidc.com/Linux/2017-12/149670.htm

 

============ 下面是曾经使用过的一个案例: 三台节点机器, 配置三个 VIP, 实行相互之间的 ” 两主两从 ” 模式 =============

 

server1:第一台节点的 keepalived.conf 配置. 其中 VIP:192.168.20.187
[root@keepalived-node01 ~]# cat /etc/keepalived/keepalived.conf
! Configuration File for keepalived
 
global_defs {
  notification_email {
    kevin@bobo.com
  }
  smtp_server 192.168.200.1
  smtp_connect_timeout 30
  router_id innodb_cluster    #局域网中需要共享该 vip 的服务器,该配置要一致
  vrrp_skip_check_adv_addr
  vrrp_garp_interval 0
  vrrp_gna_interval 0
}
 
vrrp_instance VI_1 {
    state MASTER      #状态为 master, 表明 keepalived 启动后会抢占 IP,  但,下面的优先级值 201 要高于 从库的优先级 101
    interface eth0      #viP 绑定的网卡
    virtual_router_id 191  #这个组队标志,同一个 vrrp 下的 值一致,主从一致
    priority 201        # 主库为 201,高于从库 101
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        192.168.20.187  #这是 VIP 值
    }
}
 
vrrp_instance VI_2 {
    state BACKUP    #状态为 BACKUP, 表明 keepalived 启动后不抢占 IP
    interface eth0  #VIP 绑定的接口
    virtual_router_id 193  #组队标识,同一个 vrrp 下的值一致
    priority 101      #设置优先级小于另一个节点的 priority 上值。
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 3333
    }
    virtual_ipaddress {
        192.168.20.189
    }
}
 
 
启动 keepalived
[root@keepalived-node01 ~]# /etc/init.d/keepalived start
[root@keepalived-node01 ~]# ps -ef|grep keepalived 
root    13746    1  0 16:31 ?        00:00:00 /usr/sbin/keepalived -D
root    13747 13746  0 16:31 ?        00:00:00 /usr/sbin/keepalived -D
root    13748 13746  0 16:31 ?        00:00:00 /usr/sbin/keepalived -D
root    14089 13983  0 16:36 pts/1    00:00:00 grep –color=auto keepalived
 
启动 keepalived 服务后, 查看 ip
[root@keepalived-node01 ~]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
      valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
      valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
    link/ether 2e:ab:68:68:ee:90 brd ff:ff:ff:ff:ff:ff
    inet 192.168.20.191/24 brd 192.168.20.255 scope global noprefixroute eth0
      valid_lft forever preferred_lft forever
    inet 192.168.20.187/32 scope global eth0
      valid_lft forever preferred_lft forever
    inet6 fe80::2cab:68ff:fe68:ee90/64 scope link
      valid_lft forever preferred_lft forever
 
 
 
==========================================================================================
server2:第二台节点的 keepalived.conf 配置. 其中 VIP:192.168.20.188
 
[root@keepalived-node02 ~]# cat /etc/keepalived/keepalived.conf
! Configuration File for keepalived
 
global_defs {
  notification_email {
    kevin@bobo.com
  }
  smtp_server 192.168.200.1
  smtp_connect_timeout 30
  router_id innodb_cluster    #局域网中需要共享该 vip 的服务器,该配置要一致
  vrrp_skip_check_adv_addr
  vrrp_garp_interval 0
  vrrp_gna_interval 0
}
 
vrrp_instance VI_1 {
    state MASTER      #状态为 master, 表明 keepalived 启动后会抢占 IP,  但,下面的优先级值 201 要高于 从库的优先级 101
    interface eth0      #viP 绑定的网卡
    virtual_router_id 192    #这个组队标志,同一个 vrrp 下的 值一致,主从一致
    priority 201          # 主库为 201,高于从库 101
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 2222
    }
    virtual_ipaddress {
        192.168.20.188  #这是 VIP 值
    }
}
 
vrrp_instance VI_2 {
    state BACKUP      #状态为 BACKUP, 表明 keepalived 启动后不抢占 IP
    interface eth0      #VIP 绑定的接口
    virtual_router_id 191  #组队标识,同一个 vrrp 下的值一致
    priority 101      #设置优先级小于另一个节点的 priority 上值。
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        192.168.20.187
       
    }
}
 
 
启动 keepalived
[root@keepalived-node02 ~]# /etc/init.d/keepalived start
[root@keepalived-node02 ~]# ps -ef|grep keepalived
root    13327    1  0 16:32 ?        00:00:00 /usr/sbin/keepalived -D
root    13328 13327  0 16:32 ?        00:00:00 /usr/sbin/keepalived -D
root    13329 13327  0 16:32 ?        00:00:00 /usr/sbin/keepalived -D
root    13570 13529  0 16:39 pts/1    00:00:00 grep –color=auto keepalived
 
 
启动 keepalived 服务后查看 ip
[root@keepalived-node02 ~]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
      valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
      valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
    link/ether 76:6d:74:97:03:15 brd ff:ff:ff:ff:ff:ff
    inet 192.168.20.192/24 brd 192.168.20.255 scope global noprefixroute eth0
      valid_lft forever preferred_lft forever
    inet 192.168.20.188/32 scope global eth0
      valid_lft forever preferred_lft forever
    inet6 fe80::746d:74ff:fe97:315/64 scope link
      valid_lft forever preferred_lft forever
 
 
==========================================================================================
server3:第三台节点的 keepalived.conf 配置. 其中 VIP:192.168.20.189
 
[root@keepalived-node03 ~]# cat /etc/keepalived/keepalived.conf
! Configuration File for keepalived
 
global_defs {
  notification_email {
    kevin@bobo.com
  }
  smtp_server 192.168.200.1
  smtp_connect_timeout 30
  router_id innodb_cluster      #和 server1 一致全局唯一
  vrrp_skip_check_adv_addr   
#  vrrp_strict
  vrrp_garp_interval 0
  vrrp_gna_interval 0
}
 
vrrp_instance VI_1 {
    state BACKUP            #主是 master, 从就是 backup
    interface eth0
    virtual_router_id 192        # 组队标识,同一个 vrrp 下一致
    priority 101              #优先级也变小
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 2222
    }
    virtual_ipaddress {
        192.168.20.188 
    }
}
 
vrrp_instance VI_2 {
    state MASTER          #主变成 MASTER
    interface eth0          #绑定网卡
    virtual_router_id 193      #组队标志,同一个 vip 下一致
    priority 201            #优先级提升
    advert_int 1           
    authentication {
        auth_type PASS
        auth_pass 3333
    }
    virtual_ipaddress {
        192.168.20.189
    }
}
 
 
启动 keepalived
[root@keepalived-node03 ~]# /etc/init.d/keepalived start
[root@keepalived-node03 ~]# ps -ef|grep keepalived
root    13134    1  0 16:33 ?        00:00:00 /usr/sbin/keepalived -D
root    13135 13134  0 16:33 ?        00:00:00 /usr/sbin/keepalived -D
root    13136 13134  0 16:33 ?        00:00:00 /usr/sbin/keepalived -D
root    13526 13460  0 16:41 pts/1    00:00:00 grep –color=auto keepalived
 
启动 keepalived 服务后查看 ip
[root@keepalived-node03 ~]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
      valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
      valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
    link/ether 22:ee:46:41:f0:e6 brd ff:ff:ff:ff:ff:ff
    inet 192.168.20.193/24 brd 192.168.20.255 scope global noprefixroute eth0
      valid_lft forever preferred_lft forever
    inet 192.168.20.189/32 scope global eth0
      valid_lft forever preferred_lft forever
    inet6 fe80::20ee:46ff:fe41:f0e6/64 scope link
      valid_lft forever preferred_lft forever
 
 
温馨提示:
如上,keepalived.conf 配置后, 重启 keepalived 服务, 重启成功并且 vip 地址已经有了, 但是死活 ping 不通 vip 地址!!
这是因为 keepalived.conf 文件中的 vrrp_strict 参数引起的, 将该参数注释掉就可以了!!!
 
vrrp_strict  表示严格执行 VRRP 协议规范,此模式不支持节点单播

 

VIP 地址 ping 不通, 需要注释 vrrp_strict 参数配置即可!

正文完
星哥说事-微信公众号
post-qrcode
 
星锅
版权声明:本站原创文章,由 星锅 2022-01-21发表,共计23747字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中