目录
一、LVS-DR
1.LVS-DR 模式的特点
2、LVS-DR 中的 ARP 问题
3、部署 LVS-DR 负载均衡集群
架构概述
安装环境
正式部署
配置 NFS 共享存储
配置 WEB 节点服务器
WEB2
二、Keepalived
1. 概述
为什么需要 keepalived
keepalived 是什么
keepalived 服务重要功能
keepalived 高可用故障切换转移原理
2、LVS + DR + Keepalived 高可用集群构建
集群概述
正式部署
(1) 从负载调度器配置
(2) 主-从负载调度器安装配置 keepalived
Windows 10 测试访问
一、LVS-DR
1.LVS-DR 模式的特点
- Director Server 和 Real Server 必须在同一个物理网络中。
- Real Server 可以使用私有地址,也可以使用公网地址。如果使用公网地址,可以通过互联网对 RIP 进行直接访问。
- Director Server 作为群集的访问入口,但不作为网关使用。
- 所有的请求报文经由 Real Server,但回复响应报文不能经过 Director Server。
- Real Server 的网关不允许指向 Director Server IP,即 Real Server 发送的数据包不允许经过 Director Server。
- Real Server上的 lo 接口配置 VIP 地址。
2、LVS-DR 中的 ARP 问题
在局域网中具有相同的 IP 地址,势必会造成各服务器 ARP 通信的紊乱
当 ARP 广播发送到 LVS-DR 集群时,因为负载均衡器和节点服务器都是连接到相同网络上,它们都会接收到 ARP 广播设置
只有前端的负载均衡器进行响应,其他节点服务器均不响应 ARP 广播
//解决方法:
使用虚接口 lo:0 承载 VIP 地址
设置内核参数 arp_ignore=1(系统只响应目的 IP 为本地 IP 的 ARP 请求)
RealServer 返回报文(源 IP 是 VIP)经路由器转发,重新封装报文时,需要先获取路由器的 MAC 地址
且发送 ARP 请求时,Linux 默认使用 IP 包的源 IP 地址(即 VIP)作为 ARP 请求包中的源 IP 地址,而不使用发送接口的 IP 地址
路由器收到 ARP 请求后,将更新 ARP 表项
原有的 VIP 对应 Director 的 MAC 地址会被更新为 VIP 对应 RealServer 的 MAC 地址,而路由器根据 ARP 表项,会将新来的请求报文转发给 RealServer,导致 Director 的 VIP 失效
//解决方法:
对节点服务器进行处理,设置内核参数 arp_announce=2(系统不使用 IP 包的源地址来设置 ARP 请求的源地址,而选择发送接口的 IP 地址)
3、部署 LVS-DR 负载均衡集群
架构概述
在 DR 模式的群集中,LVS 负载调度器作为群集的访问入口,但不作为网关使用
服务器池中的所有节点都各自接入 Internet,发送给客户机的 Web 响应数据包不需要经过 LVS 负载调度器
这种方式入站、出站访问数据被分别处理,因此 LVS 负载调度器和所有节点服务器都需要配置有 VIP 地址,以便响应应对整个群集的访问
考虑到数据存储的安全性,共享存储设备会放在内部的专用网络内
安装环境
- 宿主机:Win10 专业工作站版本
- VMware Pro 16
- CentOS 7
- 网络适配器:均为 NAT 模式
- 网卡配置:均为静态获取 IP
- YUM 源:本地
正式部署
加载 LVS 内核模块
systemctl stop firewalld.service && systemctl disable firewalld.service
setenforce 0
modprobe ip_vs
cat /proc/net/ip_vs
yum install -y ipvsadm
配置虚拟地址(VIP)
cd /etc/sysconfig/network-scripts/ && cp ifcfg-ens33 ifcfg-ens33:0
echo > /etc/sysconfig/network-scripts/ifcfg-ens33:0
cat > /etc/sysconfig/network-scripts/ifcfg-ens33:0 <<EOF
DEVICE=ens33:0
ONBOOT=yes
IPADDR=192.168.10.25
NETMASK=255.255.255.255
EOF
ifup ens33:0
ifconfig ens33:0
调整 proc 响应参数
cat >> /etc/sysctl.conf <<EOF
net.ipv4.ip_forward = 0
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
EOF
sysctl -p #使配置生效
配置负载分配策略
ipvsadm-save > /etc/sysconfig/ipvsadm
systemctl start ipvsadm && systemctl enable ipvsadm
ipvsadm -C
#清除原有策略
ipvsadm -A -t 192.168.10.25:80 -s rr
ipvsadm -a -t 192.168.10.25:80 -r 192.168.10.30:80 -g
ipvsadm -a -t 192.168.10.25:80 -r 192.168.10.40:80 -g
#若使用隧道模式,则结尾处 -g 替换为 -i
ipvsadm
ipvsadm -ln
#查看节点状态,Route 代表 DR 模式
配置 NFS 共享存储
systemctl stop firewalld && systemctl disable firewalld
setenforce 0
yum install -y nfs-utils rpcbind
systemctl start nfs && systemctl enable nfs
systemctl start rpcbind && systemctl enable rpcbind
mkdir /opt/test1 /opt/test2
chmod 777 /opt/test1/ /opt/test2/
cat > /etc/exports <<EOF
/usr/share *(ro,sync)
/opt/test1 192.168.10.0/24(rw,sync)
/opt/test2 192.168.10.0/24(rw,sync)
EOF
exportfs -rv
showmount -e
配置 WEB 节点服务器
使用 DR 模式时,WEB 节点服务器也需要配置 VIP 地址,并调整内核的 ARP 响应参数以组织更新 VIP 的 MAC 地址,避免发生冲突
除此之外,Web 服务的配置与 NAT 方式类似
WEB1
准备
systemctl stop firewalld && systemctl disable firewalld
setenforce 0
#为了模拟内网环境,可将两个 WEB 节点服务器的网关和 DNS 注释掉后重启网卡
#如果有网关服务器则指向网关服务器
#需要下载软件使用本地 YUM 仓库
配置虚拟 IP 地址
#此地址仅用做发送 Web 响应数据包的源地址,并不需要监听客户机的访问请求(改由调度器监听并分发)
#因此使用虚接口 lo:0 来承载 VIP 地址,并为本机添加一条路由记录,将访问 VIP 的数据限制在本地,以避免通信紊乱
cd /etc/sysconfig/network-scripts/ && cp ifcfg-lo ifcfg-lo:0
echo > /etc/sysconfig/network-scripts/ifcfg-lo:0
cat > /etc/sysconfig/network-scripts/ifcfg-lo:0 <<EOF
DEVICE=lo:0
IPADDR=192.168.10.25
NETMASK=255.255.255.255
ONBOOT=yes
EOF
ifup lo:0
ifconfig lo:0
route add -host 192.168.10.25 dev lo:0
route -n
cat >> /etc/rc.local <<EOF
/sbin/route add -host 192.168.10.25 dev lo:0
EOF
chmod +x /etc/rc.d/rc.local
调整内核的 ARP 响应参数,以阻止更新 VIP 的 MAC 地址,避免发生冲突
cat >> /etc/sysctl.conf <<EOF
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
EOF
sysctl -p
挂载共享目录
yum -y install nfs-utils rpcbind httpd
systemctl start rpcbind && systemctl enable rpcbind
systemctl start httpd && systemctl enable httpd
mount.nfs 192.168.10.50:/opt/test1 /var/www/html/
echo 'Hello test1~' > /var/www/html/index.html
echo "192.168.10.50:/opt/test1 /var/www/html nfs defaults,_netdev 0 0" >> /etc/fstab
mount -a
WEB2
除了共享目录,其他配置同 WEB1
systemctl stop firewalld && systemctl disable firewalld
setenforce 0
cd /etc/sysconfig/network-scripts/ && cp ifcfg-lo ifcfg-lo:0
echo > /etc/sysconfig/network-scripts/ifcfg-lo:0
cat > /etc/sysconfig/network-scripts/ifcfg-lo:0 <<EOF
DEVICE=lo:0
IPADDR=192.168.10.25
NETMASK=255.255.255.255
ONBOOT=yes
EOF
ifup lo:0
route add -host 192.168.10.25 dev lo:0
cat >> /etc/rc.local <<EOF
/sbin/route add -host 192.168.10.25 dev lo:0
EOF
chmod +x /etc/rc.d/rc.local
cat >> /etc/sysctl.conf <<EOF
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
EOF
sysctl -p
yum -y install nfs-utils rpcbind httpd
systemctl start rpcbind && systemctl enable rpcbind
systemctl start httpd && systemctl enable httpd
mount.nfs 192.168.10.50:/opt/test2 /var/www/html/
echo 'Hello test2~' > /var/www/html/index.html
echo "192.168.10.50:/opt/test2 /var/www/html nfs defaults,_netdev 0 0" >> /etc/fstab
mount -a
二、Keepalived
1. 概述
为什么需要 keepalived
企业应用中,单台服务器承担应用存在单点故障的危险,单点故障一旦发生,企业服务将发生中断,造成极大的危害和损失。
keepalived 是什么
keepalived 软件起初是专为 LVS 负载均衡软件设计的,用来管理并监控 LVS 集群中各个服务节点的状态,后来又加入了可以实现高可用的 VRRP 功能。因此,keepalived 除了能够管理 LVS 集群外,还可以为其他服务(例如:Nginx、Haproxy、MySQL等)实现高可用。
keepalived 软件主要是通过 VRRP 协议实现高可用功能的。VRRP 是 Virtual Router Redundancy Protocol(虚拟路由器冗余协议)的缩写,VRRP 出现的目的就是为了解决静态路由单点故障的问题,它能够保证当个别节点宕机时,整个网络可以不间断地运行。
所以,keepalived 一方面具有配置管理 LVS 的功能,同时还具有对 LVS 下面节点进行健康检查的功能,另一方面也可实现系统网络服务的高可用。
keepalived 服务重要功能
管理 LVS 负载均衡软件
支持故障自动切换(Failover)
实现 LVS 集群中节点的健康检查(Health Checking)
实现 LVS 负载调度器、节点服务器的高可用性(HA)
一般企业集群需要满足的三个特点:负载均衡、健康检查、故障切换,使用 LVS + Keepalived 完全可以满足需求。
keepalived 高可用故障切换转移原理
keepalived 高可用服务对集群之间的故障切换转移,是通过 VRRP(虚拟路由器冗余协议)来实现的。
在 keepalived 服务正常工作时,主(Master)节点会不断地向备(Backup)节点发送(多播的方式)心跳消息,用以告诉备节点自己还活看,当主节点发生故障时,就无法发送心跳消息,备节点也就因此无法继续检测到来自主节点的心跳了,于是调用自身的接管程序,接管主节点的 IP 资源及服务。而当主节点恢复时,备节点又会释放主节点故障时自身接管的 IP 资源及服务,恢复到原来的备用角色。
2、LVS + DR + Keepalived 高可用集群构建
集群概述
keepalived 的设计目标是构建高可用的 LVS 负载均衡集群,可以调用 ipvsadm 工具来创建虚拟服务器、管理服务器池,而不仅仅用作双机热备
使用 keepalived 构建 LVS 集群更加简便易用,主要优势在于:对 LVS 负载调度器实现热备切换,提高可用性;对服务器池中的节点进行健康检查,自动移除失效节点,恢复后再重新加入
案列将以 DR 模式的 LVS 集群为基础,增加一台从负载调度器,使用 keepalived 实现主、从调度器的热备,搭建兼有负载均衡、高可用性两种能力的 LVS 集群架构
使用 keepalived 构建 LVS 集群时,也需要用到 ipvsadm 管理工具,但大部分工作会由 keepalived 自动完成,不需要手动执行 ipvsadm (除了查看和监控集群以外)
正式部署
(1) 从负载调度器配置
systemctl stop firewalld.service && systemctl disable firewalld.service
setenforce 0
modprobe ip_vs
cat /proc/net/ip_vs
yum install -y ipvsadm
cd /etc/sysconfig/network-scripts/ && cp ifcfg-ens33 ifcfg-ens33:0
echo > /etc/sysconfig/network-scripts/ifcfg-ens33:0
cat > /etc/sysconfig/network-scripts/ifcfg-ens33:0 <<EOF
DEVICE=ens33:0
ONBOOT=yes
IPADDR=192.168.10.25
NETMASK=255.255.255.255
EOF
ifup ens33:0 #lvs_01 已经有 VIP 了,直接用 ifup 会执行失败
systemctl restart network
ifup ens33:0 #再次执行
ip a #确认一下 ens33:0 是否生效
cat >> /etc/sysctl.conf <<EOF
net.ipv4.ip_forward = 0
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
EOF
sysctl -p
ipvsadm-save > /etc/sysconfig/ipvsadm
systemctl start ipvsadm && systemctl enable ipvsadm
ipvsadm -C
ipvsadm -A -t 192.168.10.25:80 -s rr
ipvsadm -a -t 192.168.10.25:80 -r 192.168.10.30:80 -g
ipvsadm -a -t 192.168.10.25:80 -r 192.168.10.40:80 -g
ipvsadm
ipvsadm -ln
(2) 主-从负载调度器安装配置 keepalived
yum -y install keepalived
#安装软件包
cd /etc/keepalived/
cp keepalived.conf keepalived.conf.bak
#备份
vim keepalived.conf
#配置文件只需要从 global_defs 开始的内容,上面无用的配置也清掉
global_defs { #定义全局参数
#第10行,邮件服务指向本地
smtp_server 127.0.0.1
#第12行,指定服务器(路由器)的名称,主备服务器名称须不同,主为 LVS_01,备为 LVS_02
router_id LVS_01
}
vrrp_instance VI_1 { #定义 VRRP 热备实例参数
#20行,指定热备状态,主为 MASTER,备为 BACKUP
state MASTER
#21行,指定承载 vip 地址的物理接口
interface ens33
#第22行,指定虚拟路由器的 ID 号,每个热备组保持一致
virtual_router_id 10
#第23行,指定优先级,数值越大优先级越高,主为 100,备为 99
priority 100
advert_int 1 #通告间隔秒数(心跳频率)
authentication { #定义认证信息,每个热备组保持一致
auth_type PASS #认证类型
#第27行,指定验证密码,主备服务器保持一致
auth_pass 123123
}
virtual_ipaddress { #指定群集vip地址
192.168.10.25
}
}
#第34行,指定虚拟服务器地址(VIP)、端口,定义虚拟服务器和 Web 服务器池参数
virtual_server 192.168.10.25 80 {
delay_loop 6 #健康检查的间隔时间(秒)
lb_algo rr #指定调度算法,轮询(rr)
#第37行,指定群集工作模式,直接路由(DR)
lb_kind DR
persistence_timeout 50 #连接保持时间(秒)
protocol TCP #应用服务采用的是 TCP协议
#第41行,指定第一个Web节点的地址、端口
real_server 192.168.10.30 80 {
weight 1 #节点的权重
#第43行,添加以下健康检查方式,删掉不需要的配置
TCP_CHECK {
connect_port 80 #添加检查的目标端口
connect_timeout 3 #添加连接超时(秒)
nb_get_retry 3 #添加重试次数
delay_before_retry 3 #添加重试间隔
}
}
real_server 192.168.10.40 80 { #添加第二个 Web 节点的地址、端口
weight 1
TCP_CHECK {
connect_port 80
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
}
#可删除后面多余的网段
systemctl start keepalived && systemctl enable keepalived
#两个负载调度器开启 keepalived 服务
ip addr show dev ens33
#查看虚拟网卡 vip
Windows 10 测试访问
- 在客户机的浏览器中,能够通过 LVS + Keepalived 群集的 VIP 地址正常访问 Web 页面内容
- 当主、从调度器任何一个失效时,Web 站点仍然可以访问(可能需要刷新或者重新打开浏览器)
- 只要有两台及以上的真实服务器可用,就可以实现访问量的负载均衡