LVS+Keepalived集群

1、Keepalived及其工作原理

Keepalived 是一个基于VRRP协议 来实现的LVS服务高可用方案,可以解决静态路由出现的单点故障问题。

keepalived 高可用之间是通过VRRP进行通信 ,VRRP是通过竞选的来确定主备,主优先级高于备。在一个LVS服务集群中通常有主服务器(Master )和备份服务器(Backup )两种服务器,但是对外表现为一个虚拟IP,主服务器会广播VRRP报文给备份服务器,告诉备我还活着,此时备不会去抢占主;当备份服务器收不到VRRP消息的时候,即主服务器异常的时候,备份服务器就会接管虚拟IP,继续提供服务,从而保证了高可用性。

2、Keepalived体系主要模块及作用

keepalived体系架构中主要有三个模块,分别是 core、check、vrrp

core模块 :为keepalived的核心,负责主进程的启动、维护及全局配置文件的加载和解析。

vrrp模块 :(检查主、备问题)是来实现VRRP协议的。

check模块:(检查后端服务nginx什么的)负责健康检查,常见的方式有端口检查及URL检查。

脚本

3、LVS+Keepalived 高可用群集

主DR 服务器:ens33(192.168.190.10) ipvsadm 、keepalived(热备) 虚拟IP:192.168.10.180 网卡 ens33:0

备DR 服务器:ens33(192.168.190.20) ipvsadm 、keepalived

虚拟IP:192.168.10.180 网卡 ens33:0

Web 服务器1:ens33 192.168.190.50

lo:0(VIP)192.168.10.180

Web 服务器2:ens33 192.168.190.60

lo:0(VIP)192.168.190.180

vip:192.168.190.180

客户端:192.168.190.100

---------------------LVS 部署-------------------------

1.配置负载调度器(主、备相同) (192.168.10.80、192.168.10.23)

systemctl stop firewalld.service

setenforce 0

yum -y install ipvsadm keepalived

modprobe ip_vs

cat /proc/net/ip_vs

(1)配置keeplived(主、备DR 服务器上都要设置)*****注意主、备不一样的地方

cd /etc/keepalived/

cp keepalived.conf keepalived.conf.bak #备份

vim keepalived.conf

......

global_defs { #定义全局参数

--10行--修改,邮件服务指向本地回环地址

smtp_server 127.0.0.1

--12行--修改,指定服务器(路由器)的名称,主备服务器名称须不同,主(Master)为LVS_01,备(Backup)为LVS_02

router_id LVS_01

--14行--注释掉,取消严格遵守VRRP协议功能,否则VIP无法被连接

#vrrp_strict

}

vrrp_instance VI_1 { #定义VRRP热备实例参数

--20行--修改,指定热备状态,主为MASTER,备为BACKUP

state MASTER

--21行--修改,指定承载vip地址的物理接口

interface ens33

--22行--修改,指定虚拟路由器的ID号,每个热备组保持一致

virtual_router_id 10

#nopreempt #如果设置非抢占模式,两个节点state必须为bakcup,并加上配置 nopreempt

--23行--修改,指定优先级,数值越大优先级越高,这里设置主为100,备为90

priority 100

advert_int 1 #通告间隔秒数(心跳频率)

authentication { #定义认证信息,每个热备组保持一致

auth_type PASS #认证类型

--27行--修改,指定验证密码,主备服务器保持一致

auth_pass abc123

}

virtual_ipaddress { #指定群集vip地址(虚拟IP)

192.168.10.180

}

}

--36行--修改,指定虚拟服务器地址(VIP)、端口,定义虚拟服务器和Web服务器池参数

virtual_server 192.168.10.180 80 { #HTTP 80 HTTPS 443

delay_loop 6 #健康检查的间隔时间(秒)

lb_algo rr #指定调度算法,轮询(rr)

--39行--修改,指定群集工作模式,直接路由(DR)

lb_kind DR

persistence_timeout 50 #连接保持时间(秒)

protocol TCP #应用服务采用的是 TCP协议

--43行--修改,指定第一个Web节点的地址、端口

real_server 192.168.10.16 80 {

weight 1 #节点的权重

--45行--删除,添加以下健康检查方式

TCP_CHECK {

connect_port 80 #添加检查的目标端口

connect_timeout 3 #添加连接超时(秒)

nb_get_retry 3 #添加重试次数

delay_before_retry 3 #添加重试间隔

}

}

real_server 192.168.10.17 80 { #添加第二个 Web节点的地址、端口

weight 1

TCP_CHECK {

connect_port 80

connect_timeout 3

nb_get_retry 3

delay_before_retry 3

}

}

##删除后面多余的配置##

}

节点服务器192.168.10.80和23都需要配置vip(虚拟IP) 80(master) 23(backup)

cd /etc/sysconfig/network-scripts/

cp ifcfg-ens33 ifcfg-ens33:0

vim /etc/sysconfig/network-scripts/ifcfg-ens33:0

DEVICE=ens33:0

ONBOOT=yes

IPADDR=192.168.10.180

NETMASK=255.255.255.255

重启网卡 systemctl restart network #先只开 主 80

ifup ens33:0

systemctl start keepalived

ip addr #查看虚拟网卡vip

==============================================

配置文件里有,可以不做

ipvsadm -ln

(2)启动 ipvsadm 服务

--192.168.10.80---

ipvsadm-save > /etc/sysconfig/ipvsadm

systemctl start ipvsadm

ipvsadm -C ##清空规则

ipvsadm -A -t 192.168.10.180:80 -s rr

ipvsadm -a -t 192.168.10.180:80 -r 192.168.10.16:80 -g

ipvsadm -a -t 192.168.10.180:80 -r 192.168.10.17:80 -g

ipvsadm -ln

#如没有VIP 的分发策略,则重启 keepalived 服务,systemctl restart keepalived

--192.168.10.15---

ipvsadm-save > /etc/sysconfig/ipvsadm

systemctl start ipvsadm

ipvsadm -ln

==============================================

(3)调整 proc 响应参数,关闭Linux 内核的重定向参数响应

vim /etc/sysctl.conf

net.ipv4.conf.all.send_redirects = 0

net.ipv4.conf.default.send_redirects = 0

net.ipv4.conf.ens33.send_redirects = 0

sysctl -p

2.配置节点服务器

systemctl stop firewalld

setenforce 0

yum -y install httpd

systemctl start httpd

--192.168.10.16---

echo 'this is kgc web!' > /var/www/html/index.html

--192.168.10.17---

echo 'this is benet web!' > /var/www/html/index.html

vim /etc/sysconfig/network-scripts/ifcfg-lo:0

DEVICE=lo:0

ONBOOT=yes

IPADDR=192.168.10.180

NETMASK=255.255.255.255

service network restart 或 systemctl restart network

ifup lo:0

ifconfig lo:0

route add -host 192.168.10.180 dev lo:0

vim /etc/sysctl.conf

net.ipv4.conf.lo.arp_ignore = 1

net.ipv4.conf.lo.arp_announce = 2

net.ipv4.conf.all.arp_ignore = 1

net.ipv4.conf.all.arp_announce = 2

sysctl -p

3.测试验证

在客户端访问 http://192.168.10.180/

切换故障

主服务器 关闭 keepalived 服务后再测试, systemctl stop keepalived

切换故障 80 systemcl stop keepalived

如果主、备 ens33:0 不配 ,192.168.10.180能不能过来

相关推荐
码农研究僧3 天前
详细分析ipvsadm负载均衡的命令
运维·负载均衡·lvs·ipvsadm
运维&陈同学10 天前
【HAProxy08】企业级反向代理HAProxy高级功能之自定义日志格式与IP透传
linux·运维·nginx·云原生·负载均衡·lvs·haproxy·反向代理
运维&陈同学10 天前
【HAProxy06】企业级反向代理HAProxy调度算法之其他算法
运维·nginx·云计算·负载均衡·lvs·haproxy·反向代理
运维&陈同学10 天前
【HAProxy05】企业级反向代理HAProxy调度算法之静态算法与动态算法
linux·运维·算法·nginx·云原生·负载均衡·lvs·haproxy
IC拓荒者12 天前
物理验证Calibre LVS | SMIC Process过LVS时VNW和VPW要如何做处理?
lvs·数字ic后端·物理验证·ic后端培训·calibre lvs·vnw vpw·衬底接触
会飞的爱迪生20 天前
centos7之LVS-DR模式传统部署
网络·lvs
会飞的爱迪生21 天前
centos7之LVS-TUNNEL模式
lvs·tunnel
IT-民工2111024 天前
LVS Nginx HAProxy的优缺点
运维·nginx·lvs
会飞的爱迪生24 天前
centos7配置keepalive+lvs
lvs·keepalive
打败40424 天前
lvs知识点归纳
负载均衡·lvs