Keepalived基础知识-运维小结

更新时间:2023-07-25 17:33:08 阅读: 评论:0

Keepalived基础知识-运维⼩结
keepalived介绍
keepalived观察其名可知,保持存活,在⽹络⾥⾯就是保持在线了,也就是所谓的⾼可⽤或热备,它集群管理中保证集群⾼可⽤的⼀个服务软件,其功能类似于heartbeat,⽤来防⽌单点故障(单点故障是指⼀旦某⼀点出现故障就会导致整个系统架构的不可⽤)的发⽣。说到keepalived就不得不说VRRP协议,可以说这个协议就是keepalived实现的基础,那么⾸先我们来看看VRRP协议。
VRRP协议介绍
学过⽹络的朋友都知道,⽹络在设计的时候必须考虑到冗余容灾,包括线路冗余,设备冗余等,防⽌⽹络存在单点故障,那在路由器或三层交换机处实现冗余就显得尤为重要。在⽹络⾥⾯有个协议就是来做这事的,这个协议就是VRRP协议,Keepalived就是巧⽤VRRP协议来实现⾼可⽤性(HA)的发⽣。
VRRP全称Virtual Router Redundancy Protocol,即虚拟路由冗余协议。对于VRRP,需要清楚知道的是:
1)VRRP是⽤来实现路由器冗余的协议。
2)VRRP协议是为了消除在静态缺省路由环境下路由器单点故障引起的⽹络失效⽽设计的主备模式的协议,使得发⽣故障⽽进⾏设计设备功能切换时可以不影响内外数据通信,不需要再修改内部⽹络的⽹络参数。
3)VRRP协议需要具有IP备份,优先路由选择,减少不必要的路由器通信等功能。
4)VRRP协议将两台或多台路由器设备虚拟成⼀个设备,对外提供虚拟路由器IP(⼀个或多个)。然⽽,在路由器组内部,如果实际拥有这个对外IP的路由器如果⼯作正常的话,就是master,或者是通过算法选举产⽣的,MASTER实现针对虚拟路由器IP的各种⽹络功能,如ARP请求,ICMP,以及数据的转发等,其他设备不具有该IP,状态是BACKUP。除了接收MASTER的VRRP状态通告信息外,不执⾏对外的⽹络功能,当主级失效时,BACKUP将接管原先MASTER的⽹络功能。
5)VRRP协议配置时,需要配置每个路由器的虚拟路由ID(VRID)和优先权值,使⽤VRID将路由器进⾏分组,具有相同VRID值的路由器为同⼀个组,VRID是⼀个0-255的整整数,;同⼀个组中的路由器通过使⽤优先权值来选举MASTER。,优先权⼤者为MASTER,优先权也是⼀个0-255的正整数。
keepalived⼯作原理
keepalived可提供vrrp以及health-check功能,可以只⽤它提供双机浮动的vip(vrrp虚拟路由功能),
这样可以简单实现⼀个双机热备⾼可⽤功能;keepalived是以VRRP虚拟路由冗余协议为基础实现⾼可⽤的,可以认为是实现路由器⾼可⽤的协议,即将N台提供相同功能的路由器组成⼀个路由器组,这个组⾥⾯有⼀个master和多个backup,master上⾯有⼀个对外提供服务的vip(该路由器所在局域⽹内其他机器的默认路由为该vip),master会发组播,当backup收不到VRRP包时就认为master宕掉了,这时就需要根据VRRP的优先级来选举⼀个backup当master。这样的话就可以保证路由器的⾼可⽤了。
下图是keepalived的组件图
keepalived也是模块化设计,不同模块复杂不同的功能,它主要有三个模块,分别是core、check和VRRP,其中:
core模块:为keepalived的核⼼组件,负责主进程的启动、维护以及全局配置⽂件的加载和解析;
check:负责健康检查,包括常见的各种检查⽅式;
VRRP模块:是来实现VRRP协议的。
system call:系统调⽤
watch dog:监控check和vrrp进程的看管者,check负责检测器⼦进程的健康状态,当其检测到master上的服务不可⽤时则通告vrrp将其转移⾄backup服务器上。
除此之外,keepalived还有下⾯两个组件:
libipfwc:iptables(ipchains)库,配置LVS会⽤到
libipvs*:配置LVS会⽤到
注意,keepalived和LVS完全是两码事,只不过他们各负其责相互配合⽽已。
中英文在线翻译器keepalived正常启动的时候,共启动3个进程:
⼀个是⽗进程,负责监控其⼦进程;⼀个是VRRP⼦进程,另外⼀个是checkers⼦进程;
两个⼦进程都被系统watchlog看管,两个⼦进程各⾃负责复杂⾃⼰的事。
Healthcheck⼦进程检查各⾃服务器的健康状况,,例如http,lvs。如果healthchecks进程检查到master上服务不可⽤了,就会通知本机上的VRRP⼦进程,让他删除通告,并且去掉虚拟IP,转换为BACKUP状态。
Keepalived作⽤
Keepalived主要⽤作RealServer的健康状态检查以及LoadBalance主机和BackUP主机之间failover的实现。Keepalived的作⽤是检测web服务器的状态,如果有⼀台web服务器死机,或⼯作出现故障,Keepalived将检测到,并将有故障的web服务器从系统中剔除,当web服务器⼯作正常后Keepalived⾃动将web服务器加⼊到服务器群中,这些⼯作全部⾃动完成,不需要⼈⼯⼲涉,需要⼈⼯做的只是修复故障的web服务器。
----------------------------------------------------------------------------------------------------------------------------
Keepalived和Heartbeat之间的对⽐
4 6级
1)Keepalived使⽤更简单:从安装、配置、使⽤、维护等⾓度上对⽐,Keepalived都⽐Heartbeat要简单得多,尤其是Heartbeat2.1.4后拆分成3个⼦项⽬,安装、配置、使⽤都⽐较复杂,尤其是出问题的时候,都不知道具体是哪个⼦系统出问题了;⽽Keepalived只有1个安装⽂件、1个配置⽂件,配置⽂件也简单很多;
2)Heartbeat功能更强⼤:Heartbeat虽然复杂,但功能更强⼤,配套⼯具更全,适合做⼤型集群管理,⽽Keepalived主要⽤于集群倒换,基本没有管理功能;
3)协议不同:Keepalived使⽤VRRP协议进⾏通信和选举,Heartbeat使⽤⼼跳进⾏通信和选举;Heartbeat除了⾛⽹络外,还可以通过串⼝通信,貌似更可靠;
Keepalived使⽤的vrrp协议⽅式,虚拟路由冗余协议;Heartbeat是基于主机或⽹络的服务的⾼可⽤⽅式;
Keepalived的⽬的是模拟路由器的双机;Heartbeat的⽬的是⽤户rvice的双机
4)使⽤⽅式基本类似:如果要基于两者设计⾼可⽤⽅案,最终都要根据业务需要写⾃定义的脚本,Keepalived的脚本没有任何约束,随便怎么写都可以;Heartbeat的脚本有约束,即要⽀持rvice start/stop/restart这种⽅式,⽽且Heartbeart提供了很多默认脚本,简单的绑定ip,启动apache等操作都已经有了;
使⽤建议:
优先使⽤Keepalived,当Keepalived不够⽤的时候才选择Heartbeat
lvs的⾼可⽤建议⽤Keepavlived
业务的⾼可⽤⽤Heartbeat
--------------------------------------------------------------------------------------------------------------------------
keepalived的配置⽂件
keepalived只有⼀个配置⽂件f,配置⽂件⾥⾯主要包括以下⼏个配置项,分别是global_defs、static_ipaddress、static_routes、VRRP_script、VRRP_instance 和virtual_rver。
总的来说,keepalived主要有三类区域配置,注意不是三种配置⽂件,是⼀个配置⽂件⾥⾯三种不同类别的配置区域:
1)全局配置(Global Configuration)
2)VRRPD配置
3)LVS配置
下⾯就重点来说说这三类区域的配置:
1)全局配置
全局配置⼜包括两个⼦配置:
全局定义(global definition)
静态路由配置(static ipaddress/routes)
1--全局定义(global definition)配置范例:
global_defs {
notification_email {
}
notification_email_from
smtp_rver 127.0.0.1
stmp_connect_timeout 30
router_id node1
}
全局配置解析
global_defs全局配置标识,表⾯这个区域{}是全局配置
notification_email {
admin@ywlm
}
表⽰keepalived在发⽣诸如切换操作时需要发送email通知,以及email发送给哪些邮件地址,邮件地址可以多个,每⾏⼀个
notification_email_from
表⽰发送通知邮件时邮件源地址是谁
smtp_rver 127.0.0.1
表⽰发送email时使⽤的smtp服务器地址,这⾥可以⽤本地的ndmail来实现
smtp_connect_timeout 30
连接smtp连接超时时间
router_id node1
机器标识
2--静态地址和路由配置范例
static_ipaddress {
192.168.1.1/24 brd + dev eth0 scope global
192.168.1.2/24 brd + dev eth1 scope global
}
static_routes {
src $SRC_IP to $DST_IP dev $SRC_DEVICE
src $SRC_IP to $DST_IP via $GW dev $SRC_DEVICE
}
这⾥实际上和系统⾥⾯⽤命令配置IP地址和路由的曹⼀样,例如:
192.168.1.1/24 brd + dev eth0 scope global 相当于: ip addr add 192.168.1.1/24 brd + dev eth0 scope global
就是给eth0配置IP地址
路由同理
⼀般这个区域不需要配置
这⾥实际上就是给服务器配置真实的IP地址和路由的,在复杂的环境下可能需要配置,⼀般不会⽤这个来配置,我们可以直接⽤vi /etc/sysconfig/network-script/ifcfg-eth1来配置,切记这⾥可不是VIP哦,不要搞混淆了,切记切记!
2)VRRPD配置
VRRPD配置包括三个类:
VRRP同步组(synchroization group)
VRRP实例(VRRP Instance)
VRRP脚本
1--VRRP同步组(synchroization group)配置范例
vrrp_sync_group VG_1 {
group {
http
mysql
}
notify_master /path/to/to_master.sh
notify_backup /path_to/to_backup.sh
notify_fault “/path/fault.sh VG_1”
notify /path/to/notify.sh
smtp_alert
}
其中:
group {
http
mysql
}
http和mysql是实例名和下⾯的实例名⼀致
notify_master /path/to/to_master.sh:表⽰当切换到master状态时,要执⾏的脚本
notify_backup /path_to/to_backup.sh:表⽰当切换到backup状态时,要执⾏的脚本
notify_fault “/path/fault.sh VG_1”
notify /path/to/notify.sh:
smtp alter表⽰切换时给global defs中定义的邮件地址发送右键通知
2--VRRP实例(instance)配置范例
vrrp_instance http {
state MASTER
interface eth0
dont_track_primary
track_interface {
eth0
eth1
}
mcast_src_ip <IPADDR>
garp_master_delay 10
virtual_router_id 51
priority 100
advert_int 1
authentication {
auth_type PASS
autp_pass 1234
}
virtual_ipaddress {
#<IPADDR>/<MASK> brd <IPADDR> dev <STRING> scope <SCOPT> label <LABEL>
192.168.200.17/24 dev eth1
192.168.200.18/24 dev eth2 label eth2:1
}
virtual_routes {
# src <IPADDR> [to] <IPADDR>/<MASK> via|gw <IPADDR> dev <STRING> scope <SCOPE> tab
src 192.168.100.1 to 192.168.109.0/24 via 192.168.200.254 dev eth1
192.168.110.0/24 via 192.168.200.254 dev eth1
192.168.111.0/24 dev eth2
192.168.112.0/24 via 192.168.100.254
}
nopreempt
preemtp_delay 300
debug
}
state:state指定instance(Initial)的初始状态,就是说在配置好后,这台服务器的初始状态就是这⾥指定的,但这⾥指定的不算,还是得要通过竞选通过优先级来确定,⾥如果这⾥设置为master,但如若他的优先级不及另外⼀台,那么这台在发送通告时,会发送⾃⼰的优先级,另外⼀台发现优先级不如⾃⼰的⾼,那么他会就回抢占为master interface:实例绑定的⽹卡,因为在配置虚拟IP的时候必须是在已有的⽹卡上添加的
dont track primary:忽略VRRP的interface错误
track interface:跟踪接⼝,设置额外的监控,⾥⾯任意⼀块⽹卡出现问题,都会进⼊故障(FAULT)状态,例如,⽤nginx做均衡器的时候,内⽹必须正常⼯作,如果内⽹出问题了,这个均衡器也就⽆法运作了,所以必须对内外⽹同时做健康检查
mcast src ip:发送多播数据包时的源IP地址,这⾥注意了,这⾥实际上就是在那个地址上发送VRRP通告,这个⾮常重要,⼀定要选择稳定的⽹卡端⼝来发送,这⾥相当于heartbeat的⼼跳端⼝,如果没有设置那么就⽤默认的绑定的⽹卡的IP,也就是interface指定的IP地址
garp master delay:在切换到master状态后,延迟进⾏免费的ARP(gratuitous ARP)请求
virtual router id:这⾥设置VRID,这⾥⾮常重要,相同的VRID为⼀个组,他将决定多播的MAC地址
priority 100:设置本节点的优先级,优先级⾼的为master
advert int:检查间隔,默认为1秒
virtual ipaddress:这⾥设置的就是VIP,也就是虚拟IP地址,他随着state的变化⽽增加删除,当state为master的时候就添加,当state为backup的时候删除,这⾥主要是有优先级来决定的,和state设置的值没有多⼤关系,这⾥可以设置多个IP地址
virtual routes:原理和virtual ipaddress⼀样,只不过这⾥是增加和删除路由
lvs sync daemon interface:lvs syncd绑定的⽹卡
authentication:这⾥设置认证
auth type:认证⽅式,可以是PASS或AH两种认证⽅式
auth pass:认证密码
nopreempt:设置不抢占,这⾥只能设置在state为backup的节点上,⽽且这个节点的优先级必须别另外的⾼
preempt delay:抢占延迟
debug:debug级别
notify master:和sync group这⾥设置的含义⼀样,可以单独设置,例如不同的实例通知不同的管理⼈员,http实例发给⽹站管理员,mysql的就发邮件给DBA
3--VRRP脚本范例
vrrp_script check_running {
script “/usr/local/bin/check_running”
interval 10
weight 10
}
vrrp_instance http {
state BACKUP
smtp_alert
interface eth0
virtual_router_id 101
priority 90
advert_int 3
authentication {
auth_type PASS
auth_pass whatever
}
virtual_ipaddress {
1.1.1.1
}
track_script {
check_running weight 20
}
}
⾸先在vrrp_script区域定义脚本名字和脚本执⾏的间隔和脚本执⾏的优先级变更vrrp_script check_running {
script “/usr/local/bin/check_running”
interval 10    #脚本执⾏间隔
weight 10      #脚本结果导致的优先级变更:10表⽰优先级+10;-10则表⽰优先级-10
}
然后在实例(vrrp_instance)⾥⾯引⽤,有点类似脚本⾥⾯的函数引⽤⼀样:先定义,后引⽤函数名
track_script {
check_running weight 20
}
注意:VRRP脚本(vrrp_script)和VRRP实例(vrrp_instance)属于同⼀个级别
3)LVS配置
如果你没有配置LVS+keepalived,那么⽆需配置这段区域,如果你⽤的是nginx来代替LVS,这⽆需配置这款,这⾥的LVS配置是专门为keepalived+LVS集成准备的。
注意了,这⾥LVS配置并不是指真的安装LVS然后⽤ipvsadm来配置它,⽽是⽤keepalived的配置⽂件来代替ipvsadm来配置LVS,这样会⽅便很多,⼀个配置⽂件搞定这些,维护⽅便,配置⽅便是也!
这⾥LVS配置也有两个配置
⼀个是虚拟主机组配置
⼀个是虚拟主机配置新目标英语七年级上册教案
1--虚拟主机组配置⽂件详解
这个配置是可选的,根据需求来配置吧,这⾥配置主要是为了让⼀台realrver上的某个服务可以属于多个Virtual Server,并且只做⼀次健康检查:
virtual_rver_group <STRING> { # VIP port <IPADDR> <PORT> <IPADDR> <PORT> fwmark <INT> }
2--虚拟主机配置
virtual rver可以以下⾯三种的任意⼀种来配置:
a)virtual rver IP port
b)virtual rver fwmark int
c)virtual rver group string
下⾯以第⼀种⽐较常⽤的⽅式来配详细解说⼀下:
virtual_rver 192.168.1.2 80 {                    #设置⼀个virtual rver: VIP:Vport
delay_loop 3                                                  # rvice polling的delay时间,即服务轮询的时间间隔
lb_algo rr|wrr|lc|wlc|lblc|sh|dh                        #LVS调度算法
lb_kind NAT|DR|TUN                                      #LVS集群模式
persistence_timeout 120                                #会话保持时间(秒为单位),即以⽤户在120秒内被分配到同⼀个后端realrver
persistence_granularity <NETMASK>              #LVS会话保持粒度,ipvsadm中的-M参数,默认是0xffffffff,即每个客户端都做会话保持
protocol TCP                                                  #健康检查⽤的是TCP还是UDP
ha_suspend                                                  #suspendhealthchecker’s activity
virtualhost <string>                                      #HTTP_GET做健康检查时,检查的web服务器的虚拟主机(即host:头)
sorry_rver <IPADDR> <PORT>                #备⽤机,就是当所有后端realrver节点都不可⽤时,就⽤这⾥设置的,也就是临时把所有的请求都发送到这⾥啦
real_rver <IPADDR> <PORT>                    #后端真实节点主机的权重等设置,主要,后端有⼏台这⾥就要设置⼏个
{
weight 1                                                        #给每台的权重,0表⽰失效(不知给他转发请求知道他恢复正常),默认是1
inhibit_on_failure                                            #表⽰在节点失败后,把他权重设置成0,⽽不是冲IPVS中删除
notify_up <STRING> | <QUOTED-STRING>  #检查服务器正常(UP)后,要执⾏的脚本
notify_down <STRING> | <QUOTED-STRING> #检查服务器失败(down)后,要执⾏的脚本
HTTP_GET                                                    #健康检查⽅式
{
url {                                                                #要坚持的URL,可以有多个
path /                                                            #具体路径
digest <STRING>
status_code 200                                            #返回状态码
}
connect_port 80                                            #监控检查的端⼝
bindto <IPADD>                                            #健康检查的IP地址
connect_timeout  3                                      #连接超时时间
nb_get_retry 3                                              #重连次数
delay_before_retry 2                                      #重连间隔
} # END OF HTTP_GET|SSL_GET
#下⾯是常⽤的健康检查⽅式,健康检查⽅式⼀共有HTTP_GET|SSL_GET|TCP_CHECK|SMTP_CHECK|MISC_CHECK这些
#TCP⽅式
TCP_CHECK {
connect_port 80
bindto 192.168.1.1
connect_timeout 4
} # TCP_CHECK
# SMTP⽅式,这个可以⽤来给邮件服务器做集群
SMTP_CHECK
host {
connect_ip <IP ADDRESS>
connect_port <PORT>                                    #默认检查25端⼝
14 KEEPALIVED
bindto <IP ADDRESS>
}
connect_timeout <INTEGER>
retry <INTEGER>
delay_before_retry <INTEGER>
# “smtp HELO”ž|·-ë꧌à”
helo_name <STRING>|<QUOTED-STRING>
} #SMTP_CHECK
#MISC⽅式,这个可以⽤来检查很多服务器只需要⾃⼰会些脚本即可
MISC_CHECK
{
misc_path <STRING>|<QUOTED-STRING> #外部程序或脚本
misc_timeout <INT>                                    #脚本或程序执⾏超时时间
misc_dynamic                                              #这个就很好⽤了,可以⾮常精确的来调整权重,是后端每天服务器的压⼒都能均衡调配,这个主要是通过执⾏的程序或脚本返回的状态代码来动态调整weight值,使权重根据真实的后端压⼒来适当调整#返回0:健康检查没问题,不修改权重
#返回1:健康检查失败,权重设置为0
#返回2-255:健康检查没问题,但是权重却要根据返回代码修改为返回码-2,例如如果程序或脚本执⾏后返回的代码为200,#那么权重这回被修改为 200-2
}
} # Realrver
} # Virtual Server
================================⼩案例分享=============================
collapcolumns172.16.60.205 作为web-master主节点, 172.16.60.206 作为web-slave从节点, 两节点上都部署nginx.
现在在两节点上部署keepalived, 只做节点故障时vip转移功能, 不做负载均衡功能.
vip为: 172.16.60.129
1) 主从两节点部署nginx, 安装和配置过程省略. 配置⼀样, 访问内容⼀致!
yum安装的nginx,  启动命令:  /etc/init.d/nginx start
172.16.60.205/ 和 172.16.60.205/ 均可以正常访问.
2) 主从两节点安装keepalived (两个节点都要安装)
九年级英语复习计划[root@web-master ~]# yum install -y openssl-devel
[root@web-master ~]# cd /usr/local/src/
[root@web-master src]# wget www.keepalived/software/keepalived-1.3.
[root@web-master src]# tar -zvxf keepalived-1.3.
[root@web-master src]# cd keepalived-1.3.5
[root@web-master keepalived-1.3.5]# ./configure --prefix=/usr/local/keepalived
[root@web-master keepalived-1.3.5]# make && make install
[root@web-master keepalived-1.3.5]# cp /usr/local/src/keepalived-1.3.5/keepalived/etc/init.d/keepalived /etc/rc.d/init.d/
[root@web-master keepalived-1.3.5]# cp /usr/local/keepalived/etc/sysconfig/keepalived /etc/sysconfig/
[root@web-master keepalived-1.3.5]# mkdir /etc/keepalived/
[root@web-master keepalived-1.3.5]# cp /usr/local/keepalived/etc/f /etc/keepalived/
[root@web-master keepalived-1.3.5]# cp /usr/local/keepalived/sbin/keepalived /usr/sbin/
[root@web-master keepalived-1.3.5]# echo "/etc/init.d/keepalived start" >> /etc/rc.local
[root@web-master keepalived-1.3.5]# chmod +x /etc/rc.d/init.d/keepalived
[root@web-master keepalived-1.3.5]# chkconfig keepalived on
3) keepalived配置
==========web-master 主节点的配置==========
[root@web-master ~]# cd /etc/keepalived/
[root@web-master keepalived]# f.bak
[root@web-master keepalived]# &f
[root@web-master keepalived]# ffalling
! Configuration File for keepalived
global_defs {
router_id LVS_Master
}
vrrp_instance VI_1 {
state MASTER              #指定instance初始状态,实际根据优先级决定.backup节点不⼀样
interface eth0            #虚拟IP所在⽹
virtual_router_id 51      #VRID,相同VRID为⼀个组,决定多播MAC地址
priority 100              #优先级,另⼀台改为90.backup节点不⼀样
advert_int 1              #检查间隔
authentication {
auth_type PASS        #认证⽅式,可以是pass或ha
auth_pass 1111        #认证密码
}
virtual_ipaddress {
172.16.60.129        #VIP地址
}
}
==========web-slave 从节点的配置==========
[root@web-slave ~]# cd /etc/keepalived/
[root@web-slave keepalived]# f.bak
[root@web-slave keepalived]# &f
[root@web-slave keepalived]# f
! Configuration File for keepalived
global_defs {
router_id LVS_Backup
}
vrrp_instance VI_1 {
state BACKUP
interface eth0
virtual_router_id 51
priority 90
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
172.16.60.129
}
}
4) 分别启动主从节点的keepalived服务
绯闻女孩 结局启动主节点keepalived服务
[root@web-master keepalived]# /etc/init.d/keepalived start
Starting keepalived:                                      [  OK  ]
[root@web-master keepalived]# ps -ef|grep keepalived
root    13529    1  0 16:36 ?        00:00:00 keepalived -D
root    13530 13529  0 16:36 ?        00:00:00 keepalived -D
root    13532 13529  0 16:36 ?        00:00:00 keepalived -D
root    13536  9799  0 16:36 pts/1    00:00:00 grep keepalived
启动从节点keepalived服务
[root@web-slave keepalived]# /etc/init.d/keepalived start
Starting keepalived:                                      [  OK  ]
[root@web-slave keepalived]# ps -ef|grep keepalived
root      3120    1  0 16:37 ?        00:00:00 keepalived -D
root      3121  3120  0 16:37 ?        00:00:00 keepalived -D
root      3123  3120  0 16:37 ?        00:00:00 keepalived -D
root      3128 27457  0 16:37 pts/2    00:00:00 grep keepalived
查看vip资源情况 (默认vip是在主节点上的)
[root@web-master keepalived]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
link/ether 00:50:56:88:43:f8 brd ff:ff:ff:ff:ff:ff
inet 172.16.60.205/24 brd 172.16.60.255 scope global eth0
inet 172.16.60.129/32 scope global eth0
inet6 fe80::250:56ff:fe88:43f8/64 scope link
valid_lft forever preferred_lft forever
从节点没有vip资源
[root@web-slave keepalived]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
学习的英文link/ether 00:50:56:ac:50:9b brd ff:ff:ff:ff:ff:ff
inet 172.16.60.206/24 brd 172.16.60.255 scope global eth0
inet6 fe80::250:56ff:feac:509b/64 scope link
valid_lft forever preferred_lft forever
5) keepalived 实现故障转移 (转移vip资源)
假设主节点宕机或keepalived服务挂掉, 则vip资源就会⾃动转移到从节点
[root@web-master keepalived]# /etc/init.d/keepalived stop
Stopping keepalived:                                      [  OK  ]
[root@web-master keepalived]# ps -ef|grep keepalived
root    13566  9799  0 16:40 pts/1    00:00:00 grep keepalived
[root@web-master keepalived]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
link/ether 00:50:56:88:43:f8 brd ff:ff:ff:ff:ff:ff
inet 172.16.60.205/24 brd 172.16.60.255 scope global eth0
inet6 fe80::250:56ff:fe88:43f8/64 scope link
valid_lft forever preferred_lft forever
则从节点这边就会接管vip
[root@web-slave keepalived]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
link/ether 00:50:56:ac:50:9b brd ff:ff:ff:ff:ff:ff
inet 172.16.60.206/24 brd 172.16.60.255 scope global eth0
inet 172.16.60.129/32 scope global eth0
氢氧化钠和氢氧化铝inet6 fe80::250:56ff:feac:509b/64 scope link
valid_lft forever preferred_lft forever
接着再重启主节点的keepalived服务, 即主节点故障恢复后, 就会重新抢回vip (根据配置⾥的优先级决定的)
[root@web-master keepalived]# /etc/init.d/keepalived start
Starting keepalived:                                      [  OK  ]
[root@web-master keepalived]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
link/ether 00:50:56:88:43:f8 brd ff:ff:ff:ff:ff:ff
inet 172.16.60.205/24 brd 172.16.60.255 scope global eth0
inet 172.16.60.129/32 scope global eth0
inet6 fe80::250:56ff:fe88:43f8/64 scope link
valid_lft forever preferred_lft forever
这时候, 从节点的vip就消失了
[root@web-slave keepalived]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000
link/ether 00:50:56:ac:50:9b brd ff:ff:ff:ff:ff:ff
inet 172.16.60.206/24 brd 172.16.60.255 scope global eth0
inet6 fe80::250:56ff:feac:509b/64 scope link
valid_lft forever preferred_lft forever
以上操作, keepalived仅仅实现了两台机器的vip的故障转移功能, 即实现了双机热备, 避免了单点故障.
即keepalived配置⾥仅仅只是在宕机(或keepalived服务挂掉)后才实现vip转移, 并没有实现所监控应⽤故障时的vip转移.
⽐如案例中两台机器的nginx, 可以监控nginx, 当nginx挂掉后,实现⾃启动, 如果强启失败, 则将vip转移到对⽅节点.
xfs这种情况的配置可以参考另⼀篇博⽂: /kevingrace/p/6138185.html
============下⾯是曾经使⽤过的⼀个案例: 三台节点机器,配置三个VIP,实⾏相互之间的"两主两从"模式============= rver1:第⼀台节点的f配置. 其中VIP:192.168.20.187
[root@keepalived-node01 ~]# cat /etc/f
! Configuration File for keepalived
global_defs {
notification_email {
}
smtp_rver 192.168.200.1
smtp_connect_timeout 30
router_id innodb_cluster    #局域⽹中需要共享该vip的服务器,该配置要⼀致
vrrp_skip_check_adv_addr
vrrp_garp_interval 0
vrrp_gna_interval 0
}
vrrp_instance VI_1 {

本文发布于:2023-07-25 17:33:08,感谢您对本站的认可!

本文链接:https://www.wtabcd.cn/fanwen/fan/78/1116764.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:配置   节点   路由器   脚本   路由   服务器   实现
相关文章
留言与评论(共有 0 条评论)
   
验证码:
推荐文章
排行榜
Copyright ©2019-2022 Comsenz Inc.Powered by © 专利检索| 网站地图