keepalived实现高可用

实现lLVS的高可用;实现nginx的高可用

keepalived

Keepalived软件起初是专为LVS负载均衡软件设计的,用来管理并监控LVS集群系统中各个服务节点的状态,后来又加入了可以实现高可用的VRRP功能。因此,Keepalived除了能够管理LVS软件外,还可以作为其他服务(例如:Nginx、Haproxy、MySQL等)的高可用解决方案软件。

Keepalived软件主要是通过VRRP协议实现高可用功能的。VRRP是Virtual Router RedundancyProtocol(虚拟路由器冗余协议)的缩写,VRRP出现的目的就是为了解决静态路由单点故障问题的,它能够保证当个别节点宕机时,整个网络可以不间断地运行。

Failover:故障切换,即某资源的主节点故障时,将资源转移至其它节点的操作;
Failback:故障移回,即某资源的主节点故障后重新修改上线后,将转移至其它节点的资源重新切回的过程;

keepalived官网http://www.keepalived.org

Keepalived高可用故障切换转移原理

Keepalived高可用服务对之间的故障切换转移,是通过 VRRP (Virtual Router Redundancy Protocol ,虚拟路由器冗余协议)来实现的。
在 Keepalived服务正常工作时,主 Master节点会不断地向备节点发送(以多播的方式)心跳消息,用以告诉备Backup节点自己还活看,当主 Master节点发生故障时,就无法发送心跳消息,备节点也就因此无法继续检测到来自主 Master节点的心跳了,于是调用自身的接管程序,接管主Master节点的 IP资源及服务。而当主 Master节点恢复时,备Backup节点又会释放主节点故障时自身接管的IP资源及服务,恢复到原来的备用角色。

 

vrrp协议:Virtual Redundant Routing Protocol

VRRP ,全 称 Virtual Router Redundancy Protocol ,中文名为虚拟路由冗余协议 ,VRRP的出现就是为了解决静态踣甶的单点故障问题,VRRP是通过一种竞选机制来将路由的任务交给某台VRRP路由器的。

虚拟路由器:Virtual Router
虚拟路由器标识:VRID(0-255)

master:主设备
backup:备用设备
priority:优先级

工作模式:
主/备: 一个主节点,一个备用节点
主/主:  主/备(虚拟路径器1),备/主(虚拟路径器2)

vrrp协议的软件实现,原生设计的目的为了高可用ipvs服务:
基于vrrp协议完成地址流动;
为vip地址所在的节点生成ipvs规则(在配置文件中预先定义);
为ipvs集群的各RS做健康状态检测;
基于脚本调用接口通过执行脚本完成脚本中定义的功能,进而影响集群事务;

keepalived安装配置:yum install keepalived

keepalived的程序环境:
主配置文件:/etc/keepalived/keepalived.conf
主程序文件:/usr/sbin/keepalived
Unit File:keepalived.service
Unit File的环境配置文件:/etc/sysconfig/keepalived

 

配置文件组件部分:/etc/keepalived/keepalived.conf   (各个配置模块的信息详解)

global_defs {                         (全局默认配置,多数都不需要更改)
notification_email {           (邮件设置)
acassen@firewall.loc             (当主节点出现故障时发送邮件)
failover@firewall.loc
sysadmin@firewall.loc
}
notification_email_from Alexandre.Cassen@firewall.loc      (发送邮件地址,使用意义不大)
smtp_server 192.168.200.1
smtp_connect_timeout 30
router_id LVS_DEVEL             (路由器标识,信息不是特别关键该不该都无所谓)
vrrp_skip_check_adv_addr
vrrp_strict
vrrp_garp_interval 0

vrrp_pmcast_group4 224.0.44.44   (添加组播地址,防止在同一网段的其他机器被多播影响)

vrrp_gna_interval 0

vrrp_iptables             (可在默认的全局选项中添加此条选项,防止主节点在重启后生成iptables规则,造成)
}                                    (主节点的再次启用失败)

 

vrrp_instance VI_1 {             (虚拟IP地址的设置)
state MASTER           (设置为主节点)
interface eth0               (作用哪个物理网卡上)
virtual_router_id 51   (路由器编号自定义,0-255之间的数字就可以)
priority 100                          (优先级的值0-255之间数字越大优先级越高)
advert_int 1                             (自己的心跳信息;每隔多少秒向外发布依次)
authentication {     (认证)
auth_type PASS         (认证方式:密码认证)
auth_pass 1111               (输入密码;随意字符和数字最长八位)
}

 

添加虚拟服务器的配置参数

virtual_server 10.10.10.2 1358 {
delay_loop 6    (服务轮询的时间间隔)
lb_algo rr            (定义调度方法;LVS的 rr|wrr|lc|wlc|lblc|sh|dh)
lb_kind NAT            (LVS的模型 NAT|DR|TUN)
persistence_timeout 50    (持久连接时长)
protocol TCP           (服务协议,仅支持TCP)

sorry_server 192.168.200.200 1358 (备用服务器地址:当所有后台web都宕机时提供sorry界面的服务器)

real_server 192.168.200.3 1358 {         (后台web服务器的IP地址)
weight 1            (设定权重)
HTTP_GET {
url {
path /testurl/test.jsp             (定义要监控的URL)
digest 640205b7b0fc66c1ea91c463fac6334c
}
url {
path /testurl2/test.jsp
digest 640205b7b0fc66c1ea91c463fac6334c
}
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
}

HTTP_GET|SSL_GET:应用层检测(7层检测)

path <URL_PATH>:定义要监控的URL;
status_code <INT>:判断上述检测机制为健康状态的响应码;
digest <STRING>:判断上述检测机制为健康状态的响应的内容的校验码;
}
nb_get_retry <INT>:重试次数;
delay_before_retry <INT>:重试之前的延迟时长;
connect_ip <IP ADDRESS>:向当前RS的哪个IP地址发起健康状态检测请求
connect_port <PORT>:向当前RS的哪个PORT发起健康状态检测请求
bindto <IP ADDRESS>:发出健康状态检测请求时使用的源地址;
bind_port <PORT>:发出健康状态检测请求时使用的源端口;
connect_timeout <INTEGER>:连接请求的超时时长;向RS1服务器发送请求对方没有响应,等待时长。
}

TCP_CHECK {    (tcp4层检测)
connect_ip <IP ADDRESS>:向当前RS的哪个IP地址发起健康状态检测请求
connect_port <PORT>:向当前RS的哪个PORT发起健康状态检测请求
bindto <IP ADDRESS>:发出健康状态检测请求时使用的源地址;
bind_port <PORT>:发出健康状态检测请求时使用的源端口;
connect_timeout <INTEGER>:连接请求的超时时长;
}

 

实验:实现单主配置的示例:(单个的虚拟VRRP IP地址,一个用作主节点,一个作为备用节点

具体配置信息:(在同一个网路中实现)

实验环境:selinux ;iptables;时间是否同步;(如果不同步:timedatectl set-timezone Asia/Shanghai可以用此命令设置仅在centos7上有此命令)

查看网卡信息:是否有以下信息多播方式(默认都有)

QQ截图20180711204300

如果没有此条信息:则需要手动开启此选项

ip link set dev ens33 multicast on  (开启多播方式)

ip link set dev ens33 multicast off  (关闭多播方式)

1 . 在主的机器上:

yum install keepalived   (安装包)

vim /etc/keepalived/keepalived.conf (修改配置文件)

QQ截图20180711211341

 

后面的内容可以注释掉

 

2 . 在从的机器上:

yum install keepalived   (安装包)

vim /etc/keepalived/keepalived.conf (修改配置文件)

QQ截图20180711211704

后面的内容可以注释掉

 

首先开启从的keepalived服务:systemctl start keepalived

查看网卡状态:ip a l

QQ截图20180711212805

然后再将主节点的服务器开启:systemctl start keepalived

查看网卡状态:ip a l

QQ截图20180711213021

由于是抢占模式,当主节点的服务器起来之后,发现自己的优先级高于从节点的服务器,所以将虚拟IP地址又抢占过来了。

总结:虚拟IP地址可以来回切换说明keepalived已经成功了。

 

 

实验:实现多主配置的示例:(2个虚拟的VRRP IP地址,共同提供一个服务

在dns解析上将两个虚拟的VRRP地址指向同一个域名,在客户端访问此域名时就可以实现负载均衡和高可用的两种模式:

实验环境:selinux ;iptables;时间是否同步;(如果不同步:timedatectl set-timezone Asia/Shanghai可以用此命令设置仅在centos7上有此命令)

其他配置同上一个实验

具体配置信息:(在同一个网路中实现)

1 . 在主机器上:

yum install keepalived (安装包)

vim /etc/keepalived/keepalived.conf (修改配置文件)

在上述配置的基础上添加第二个从虚拟IP地址作为备用的

 

vrrp_instance VI_2 {   (第二个虚拟IP)
state BACKUP                  (设定为备用的)是对于在从上在建一个主来说而不是对本机的主
interface ens33
virtual_router_id 55           (路由编号要更改)
priority 98                                (优先级要低)
advert_int 1
authentication {
auth_type PASS
auth_pass qwert                      (密码从新设置)
}

virtual_ipaddress {
192.168.60.88                 (新的虚拟IP地址)
}
}

 

2 . 在从机器上:

yum install keepalived (安装包)

vim /etc/keepalived/keepalived.conf (修改配置文件)

在第一个实验的基础上,添加第二个虚拟地址的主

vrrp_instance VI_2 {           (同主节点机器的第二个虚拟IP来设置的)
state MASTER                          (作为主)
interface ens33
virtual_router_id 55
priority 100
advert_int 1
authentication {
auth_type PASS
auth_pass qwert
}

virtual_ipaddress {
192.168.60.88
}

}

最后测试:

首先将主机器的keepalived开启服务:systemctl start keepalived

会发现ens33上开启了两个虚拟IP,分别是第一个虚拟IP的主和第二个虚拟IP的 备,因为此时第二个备主机未开启所以第二个虚拟IP在主机器上作为备用模式也启动了。

QQ截图20180712084144

再将备用的主机开启keepalived服务:systemctl start keepalived

由于备用主机上的的第二个IP地址在此机器上是作为主用的,所以开启服务之后,主机器只有第一个虚拟IP地址,而备用机器上有第二个虚拟IP地址。

主用机器和备用机器都有一个虚拟IP地址,两个虚拟IP地址指向同一个域名这样就实现了互为主备模式,既可以实现高可用也能够实现负载均衡的目的,将备用服务器利用起来了。

 

用户自定义的通知脚本:(通过邮件的方式通知此节点现在所处于什么状态)

在实现单主模式下的keepalived的基础上添加的
notify_master <STRING>|<QUOTED-STRING>:当前节点成为主节点时触发的脚本;
notify_backup <STRING>|<QUOTED-STRING>:当前节点转为备节点时触发的脚本;
notify_fault <STRING>|<QUOTED-STRING>:当前节点转为“失败”状态时触发的脚本;

notify <STRING>|<QUOTED-STRING>:通用格式的通知触发机制,一个脚本可完成以上三种状态的转换时的通知;
在cd /etc/keepalived/下新建脚本:(两个节点都做如下操作配置)
vim notify.sh
#!/bin/bash
#
contact=’root@localhost’
notify() {
local mailsubject=”$(hostname) to be $1, vip floating”
local mailbody=”$(date +’%F %T’): vrrp transition, $(hostname) changed to be $1″
echo “$mailbody” | mail -s “$mailsubject” $contact
}
case $1 in
master)
notify master
;;
backup)
notify backup
;;
fault)
notify fault
;;
*)
echo “Usage: $(basename $0) {master|backup|fault}”
exit 1
;;
esac

yum install mailx -y (如果没有mail命令则需要安装)
chmod +x notify.sh (给脚本添加执行权限)
最后在keepalived的配置文件里调用此脚本;
脚本的调用方法: (将下面的内容写到配置文件里去)
notify_master “/etc/keepalived/notify.sh master”
notify_backup “/etc/keepalived/notify.sh backup”
notify_fault “/etc/keepalived/notify.sh fault”

QQ截图20180712103251

最后测试:systemctl start keepalived (启动keepalived服务)

mail  (查看邮件信息,可以看到当前主备节点转换的过程和当前所处的状态信息)

小结:在上述实验中可以发现,自定义的脚本可以执行你所自定义的任务,所以也可以定义其他的脚本来执行用户所定义的要执行的内容。

 

 

实验:结合keepalived来实现LVS的高可用:

新建位图图像

模式:在同一网段下,LVS-DR模式下;keepalived为单主模式

实验环境:selinux ;iptables;时间是否同步;(如果不同步:timedatectl set-timezone Asia/Shanghai可以用此命令设置仅在centos7上有此命令)

1 .在两台LVS机器上的配置:

在主节点LVS机器上配置:

首先参照单主模式实现单主模式再添加如下内容:

virtual_server 192.168.60.99 80 {            (自定义的LVS下的VIP地址;及配置)
delay_loop 2
lb_algo rr
lb_kind DR
persistence_timeout
protocol TCP

real_server 192.168.60.21 80 {           (后端的的web服务器的IP地址,及参数配置)
weight 1
HTTP_GET {
url {
path /
status_code 200
}
connect_timeout 2
nb_get_retry 3
delay_before_retry 1
}
}
real_server 192.168.60.22 80 {      (后端的的web服务器的IP地址,及参数配置)
weight 1
HTTP_GET {
url{
path /
status_code 200
}
connect_timeout 2
nb_get_retry 3
delay_before_retry 1
}
}
}

yum install ipvsadm   (安装实现LVS的包)

ip a a 192.168.60.99/24 dev ens33:1 (将VIP地址绑定到LVS本机的DIP上)

systemctl start keepalived     (启动服务)

ip  a  l (查看虚拟IP和VIP是否已经添加到本机的网卡上了)

ipvsadm -Ln (查看ipvs规则是否生成了)

注意大括号的使用;可能会由于多了少了造成规则生成不了。

QQ截图20180712154340

在备节点LVS机器上配置:

首先参照单主模式实现单主模式再添加如下内容:
virtual_server 192.168.60.99 80 { (自定义的LVS下的VIP地址;及配置)
delay_loop 2
lb_algo rr
lb_kind DR
persistence_timeout
protocol TCP

real_server 192.168.60.21 80 { (后端的的web服务器的IP地址,及参数配置)
weight 1
HTTP_GET {
url {
path /
status_code 200
}
connect_timeout 2
nb_get_retry 3
delay_before_retry 1
}
}
real_server 192.168.60.22 80 { (后端的的web服务器的IP地址,及参数配置)
weight 1
HTTP_GET {
url{
path /
status_code 200
}
connect_timeout 2
nb_get_retry 3
delay_before_retry 1
}
}
}

yum install ipvsadm (安装实现LVS的包)

ip a a 192.168.60.99/24 dev ens33:1 (将VIP地址绑定到LVS本机的DIP上)

ip a    (查看VIP是否绑定到本机的网卡上了)

systemctl start keepalived (启动服务作为备用模式)

ipvsadm -Ln     (查看ipvs规则是否生成了)

注意大括号的使用;可能会由于多了少了造成规则生成不了。

2  . 在后台web服务器上的配置:

RS1:

yum install httpd (安装包)

echo test1 > /var/www/html/index.html       (创建测试主页面)

修改内核配置来防止VIP地址的相互冲突:
echo 1 > /proc/sys/net/ipv4/conf/lo/arp_ignore
echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore
echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce
echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce (临时修改)

cat /proc/sys/net/ipv4/conf/all/arp_ignore   (验证修改的内核参数是否成功)

将VIP地址绑定到本机的回环网卡上:(可以不用添加新的网卡)
ip a a 192.168.60.99/32 dev lo 此种只是临时绑定重启服务就会失效的

RS2:

yum install httpd (安装包)
echo test1 > /var/www/html/index.html (创建测试主页面)

修改内核配置来防止VIP地址的相互冲突:
echo 1 > /proc/sys/net/ipv4/conf/lo/arp_ignore
echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore
echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce
echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce (临时修改)

cat /proc/sys/net/ipv4/conf/all/arp_ignore (验证修改的内核参数是否成功)

将VIP地址绑定到本机的回环网卡上:(可以不用添加新的网卡)
ip a a 192.168.60.99/32 dev lo 此种只是临时绑定重启服务就会失效的

 

3. 测试: 客户端curl 192.168.60.99(此IP地址为VIP地址)

 

 

 

实验:实现nginx的高可用:

1 . 在实现keepalived的主从模式的基础上添加以下内容:

在主机器上:(确保又killall命令:没有的话需要安装yum install psmisc-22.20-15.el7.x86_64)

vim /etc/keepalived/keepalived.conf  (在实现主备的配置文件下添加的内容)

vrrp_script chk_nginx {          (定义一个小脚本,检测本机的nginx程序,如果暂停则将本机的定义的)
script “killall -0 nginx && exit 0 || exit 1”         (优先级-5;之后就小于备节点的优先级,将抢占虚拟IP)
interval 1                                                                      (备用节点就开始接管后台的程序了)
weight -5       (此数值要确保在主节点减去5后的优先级应该小于备用节点的优先级,只有这样备用节点)
fall 2                        (的优先级高于此时的主节点的优先级才能开启抢占模式)
rise 1

}

vrrp_instance VI_1 {
state master
interface ens33
virtual_router_id 16
priority 100
advert_int 1
authentication {
auth_type PASS
auth_pass 12345
}
virtual_ipaddress {
192.168.60.77/24
}

track_script {         (在此处调用刚才写的脚本;此处调用必须要包含在vrrp_instance VI_1 里面)
chk_nginx
}
}

QQ截图20180712195933

yum install nginx   (装包)

vim /etc/nginx/conf.d/test.conf        (创建nginx的配置文件)

server {
listen 80 default_server;
server_name www.a.com;
root /usr/share/nginx/html;
location / {
proxy_pass http://www;

}

}

vim /etc/nginx/nginx.conf (修改主配置文件)
upstream www {
server 192.168.60.21;
server 192.168.60.22;
}

nginx    (启动nginx服务)

2 .在备用机器上:

yum install nginx (装包)

vim /etc/nginx/conf.d/test.conf (创建nginx的配置文件)
server {
listen 80 default_server;
server_name www.a.com;
root /usr/share/nginx/html;
location / {
proxy_pass http://www;
}
}
vim /etc/nginx/nginx.conf (修改主配置文件)
upstream www {
server 192.168.60.21;
server 192.168.60.20;
}
nginx (启动nginx服务)

(确保又killall命令:没有的话需要安装yum install psmisc-22.20-15.el7.x86_64)

vim /etc/keepalived/keepalived.conf  (在实现主备模式的配置文件下添加的内容)

QQ截图20180713184203

此配置内容和主节点机器的配置内容相同。

3 .测试:访问的时虚拟IP地址

依次将后台的web服务开启;再次将nginx程序开启,最后再将keepalived服务开启。此时如果将主节点的nginx程序手动停止,此时的虚拟IP地址将转移到备用节点的机器上。由此实现了高可用。

 

实现不同网段

在不同网段的情况下,只需定义一个外网的虚拟IP地址然后将其绑定到外网的的网卡上就能实现不同网段的高可用。例如:将虚拟IP172.20.33.33绑定到ens37的网卡上,然后再客户端访问虚拟网卡的IP地址:
curl 172.20.33.33 就可以实现不同网段的高可用了。

总结:在编写脚本时将其写在默认的配置下面,但不要被默认的配置文件包括了,在引用脚本时,要将其包含在其虚拟示例的的里面。还有确定是否安装killall命令了。

 

实验:使用ansible实现自动化配置:

1 .编写脚本实现基于key的免密登陆:和ansible的程序安装并加入到主机清单里去。

vim .key.ssh

cat >> /data/ip.txt<<EOF
192.168.60.2
192.168.60.4
192.168.60.20
192.168.60.21
192.168.60.22
EOF
yum install expect -y
ssh-keygen -P “” -f “/root/.ssh/id_rsa”
password=511111
for ip in `cat /data/ip.txt`;do
expect <<EOF
spawn ssh-copy-id $ip
expect {
“yes/no” { send “yes\n”;exp_continue }
“password” { send “$password\n” }
}
expect eof
EOF
done

yum install ansible -y

cat >>/etc//ansible/hosts<<EOF

[nginx1]

192.168.60.4

[nginx2]

192.168.60.20

[web]

192.168.60.21

192.168.60.22

编写剧本实现各机器的配置:

创建配置文件的脚本:

将nginx主从的配置文件生成,将keepalived的主从配置文件生成。

主nginx的剧本:


– host: nginx1
remote_user: root

tasks:
– name: install nginx package
yum: name=nginx
– name: install keepalived package
yum: name=keepalived
– name: chmod
– shell: chmod +x /data/file.sh
– name: curl jiaoben
– script: /data/file.sh
– name: copy file
copy: src=/root/templates/keepalived1 dest=/etc/keepalived/keepalived.conf
– name: copy file
copy: src=/root/templates/test.conf dest=/etc/nginx/conf.d/test.conf
– name: clean iptables
shell: iptables -F
– name: start service
service: name=nginx state=startd
– name: start service
service: name=keepalived state=startd

QQ截图20180715210140

从nginx的剧本:


– host: nginx2
remote_user: root

tasks:
– name: install nginx package
yum: name=nginx
– name: install keepalived package
yum: name=keepalived
– name: copy file
copy: src=/root/templates/keepalived2 dest=/etc/keepalived/keepalived.conf
– name: copy file
copy: src=/root/templates/test.conf dest=/etc/nginx/conf.d/test.conf
– name: clean iptables
shell: iptables -F
– name: start service
service: name=nginx state=startd
– name: start service
service: name=keepalived state=startd

QQ截图20180715210301

后端服务器的剧本:


– host: web
remote_user: root

tasks:
– name: install http package
yum: name=httpd
– name: copy file
copy: src=/root/templates/test.conf dest=/etc/nginx/conf.d/test.conf
– name: clean iptables
shell: iptables -F
– name: touch file
shell: echo rs1 >> /var/www/html/index.html
– name: start service
service: name=httpd state=startd

QQ截图20180715210639

 

 

 

 

 

 

 

 

 

 

其他博客参考:

https://www.cnblogs.com/clsn/p/8052649.ht

 

本文来自投稿,不代表Linux运维部落立场,如若转载,请注明出处:http://www.178linux.com/102653

(0)
上一篇 2018-07-11 17:56
下一篇 2018-07-11 22:26

相关推荐