目 录
[6.1 先关闭防火墙和核心防护:两条命令:](#6.1 先关闭防火墙和核心防护:两条命令:)
[6.2 后端apache服务器的实现](#6.2 后端apache服务器的实现)
[6.3 nginx负载均衡和方向代理的配置](#6.3 nginx负载均衡和方向代理的配置)
[6.4 keepalived集群](#6.4 keepalived集群)
[6.5 测试](#6.5 测试)
[6.5.1 对keepalived的关闭和开启测试](#6.5.1 对keepalived的关闭和开启测试)
[6.5.2 对nginx的开启和关闭测试](#6.5.2 对nginx的开启和关闭测试)
一、概述:
keepalived高可用集群,把多台服务器虚构出一台来提供服务,这与网络中VRRP的实现原理一样,也有主备之分。
利用keepalived高可用集群,实现多台(这里使用两台)nginx服务器反向代理+负载均衡实验,设置两台apache服务器,提供web服务器。在nginx服务器上做负载均衡通过反向代理到两台web服务器上。
二、实验架构图如图所示:
三、实验环境:
nginx服务器:
7-1:192.168.114.10
7-2:192.168.114.20
**keepalived,VIP(virtual IP,VIP),虚拟IP:**192.168.114.188
apache服务器:
7-3:192.168.114.30
7-4:192.168.114.40
客户端:7-5:192.168.114.50
访问测试:curl 192.168.114.188
四、实现效果:
当客户端访问VIP时,主服务器提供代理服务,实现负载均衡,当主服务器7-1出现故障(如关闭keepalived,nginx等 其他故障不能正常提供服务),备服务器7-2接替7-1的正常工作,虚拟IP由备接替,实现高可用效果。
五、实验解析及步骤:
1.搭建两台web服务器
2.yum安装nginx并搭建nginx服务器实现负载均衡和反向代理:此时仅仅实现了一台nginx服务器的效果。(编译安装也可以,之前博客有写)
3.安装keepalived,修改配置文件,实现两台nginx服务器虚拟成一台服务器地址提供服务:提供服务的是主(master)服务器,备(backup)作为备用服务器。
4.客户端测试:实现访问VIP有两台web服务器提供服务,实际是nginx主服务器负载均衡和反向代理,把主服务器关闭认为使其出现故障,备服务器能够作为主服务器提供正常服务。
六、具体实现:
6.1 先关闭防火墙和核心防护:两条命令:
除客户端其他四台必须关,最好都关闭
systemctl stop firewalld
setenforce 0
6.2 后端apache服务器的实现
yum安装httpd,写一个主页文件,开启服务
7-3 apache服务器
[root@Node3 ~]#:yum install -y httpd
[root@Node3 ~]#:echo "7-333" > /var/www/html/index.html
[root@Node3 ~]#:systemctl start httpd
7-4 apache服务器,同理
[root@Node4 ~]#:yum install -y httpd
[root@Node4 ~]#:echo "7-444" > /var/www/html/index.html
[root@Node4 ~]#:systemctl start httpd
使用客户端测试:
两台服务能够正常提供服务!
6.3 nginx负载均衡和方向代理的配置
7-1和7-2配置nginx
安装nginx需要epel源
[root@Node1 ~]#:yum install -y epel-release.noarch
[root@Node1 ~]#:yum install -y nginx
修改配置文件:主配置文件的位置:/etc/nginx
[root@Node1 ~]#:vim /etc/nginx/nginx.conf
在http模块中与server模块同级,添加web组:负载均衡。
在server模块中写入location。反向代理
7-2与7-1同理,可以在7-1上直接远程拷贝到7-2上去:
7-2先下载安装:
[root@Node2 ~]#:yum install -y epel-release.noarch
[root@Node2 ~]#:yum install -y nginx
7-1上远程拷贝过来:
[root@Node1 ~]#:scp /etc/nginx/nginx.conf 192.168.114.20:/etc/nginx/
输入yes:
输入密码:
root@192.168.114.20's password:
nginx.conf 100% 2449 1.6MB/s 00:00
可以发现7-2上的/etc/nginx/nginx.conf文件也与7-1相同了
两台启动:systemctl start nginx
在客户端访问两台nginx服务器能够实现反向代理和负载均衡。
7-5客户端测试:
nginx负载均衡和反向代理服务正常!
6.4 keepalived集群
keepalived将两台服务虚拟出一台服务器,一个虚拟IP地址:192.168.114.188(自定义的IP),但虚拟IP也是在真实nginx服务器上的,谁是主就在谁上面,当主服务器出现问题了不能正常工作了,备服务器接管虚拟IP,提供正常服务,实现高可用!
7-1上的演示:
先下载安装keepalived
[root@Node1 ~]#:yum install -y keepalived
[root@Node1 ~]#:cd /etc/keepalived/ #主配置文件
主配置文件在/etc/keepalived/下的keepalived.conf
修改以下内容:[root@Node1 keepalived]#:vim keepalived.conf
#全局配置块
global_defs {
....
smtp_server 127.0.0.1 #修改邮箱地址,也可以默认
....
router_id LVS_01 #修改名称,每个服务器唯一,唯一标识
....
#vrrp_strict #注释掉,取消VRRP规则严格模式
}
#添加一个与nginx相关块
vrrp_script check_down {
script "/etc/keepalived/ng.sh" #指明脚本的位置。这里还需要写一个脚本ng.sh
interval 1 #每隔1s,执行一次检测
weight -30 #如果脚本执行失败自动减少优先级30
fall 3 #3次不成功才标注为失败
rise 2 #nginx重新起来后检测两次成功,才真的成功
timeout 2 #超时时间2s
}
#虚拟路由设置:
vrrp_instance VI_1 {
state MASTER #主
interface ens33 #网卡
......
priority 100 #优先级
virtual_ipaddress {
192.168.114.188 #虚拟IP,做一个就留一个IP
}
#添加该子模块
track_script {
check_down
}
}
#下面的模块是lvs的相关模块,我们做nginx的,下面可以直接删掉了,不需要。
#编写一个执行脚本:
[root@Node1 keepalived]#:vim ng.sh
killall -0 nginx
#加一个可执行权限:脚本需要执行权限
[root@Node1 keepalived]#:chmod +x ng.sh
启动:[root@Node1 keepalived]#:systemctl start keepalived
7-2同理:安装keepalived
[root@Node2 ~]#:yum install -y keepalived
[root@Node2 ~]#:cd /etc/keepalived/
#7-2较7-1修改以下配置:也可以通过远程拷贝的方式拷贝过来,修改三个地方:服务器唯一标识router_id,主备state,优先级priority
[root@Node2 keepalived]#:vim keepalived.conf
全局块中:
global_defs {
router_id LVS_02
}
#虚拟路由设置:
vrrp_instance VI_1 {
state BACKUP #备
priority 80 #优先级
}
#编写一个执行脚本:
[root@Node2 keepalived]#:vim ng.sh
killall -0 nginx
#加一个可执行权限:
[root@Node2 keepalived]#:chmod +x ng.sh
启动:[root@Node2 keepalived]#:systemctl start keepalived
6.5 测试
6.5.1 对keepalived的关闭和开启测试
通过以上步骤的配置,测试是否配置成功,先看虚拟IP是否在主服务器7-1上,通过ip a查看:
ip a查看,通过管道过滤出ens33,-C 2是查出ens33显示上下两行内容。
通过查看IP发现虚拟IP在7-1主服务器上,不在7-2上。
使用客户端访问虚拟IP:
通过抓包发现是7-1在向组播地址224.0.0.18发送报文,告诉备自己还活着。
把主服务器的keepalived关闭掉,看虚拟IP是否到了备服务器
[root@Node1 ~]#:systemctl stop keepalived
此时主服务器由于关闭了keepalived无法提供服务,虚拟IP也就不在7-1上了:
-A 4是向下显示4行,-B是向上显示
看7-2上是否有虚拟IP:
客户端访问虚拟IP地址。此时是备7-2在提供服务
在客户端一直抓包,发现由7-1变成了7-2在向组播地址发包。验证正确
在7-1上重新开启keepalived看IP是否回来:
[root@Node1 ~]#:systemctl start keepalived
同理观察7-1的ip a | grep -A 3 ens33,看是否回来
客户端访问虚拟IP也同样能够正常访问,此时就是7-1在提供服务。又回来了
抓包:明显看到由7-2发的包转为7-1向组播地址发包:
6.5.2 对nginx的开启和关闭测试
关闭nginx测试呢?
[root@Node1 ~]#:systemctl stop nginx
在7-2上:
抓包:发现由7-1转到了7-2
7-1再开启nginx,发现虚拟IP又回来了
抓包:从7-2又回到了7-1上
再次回到7-1上。
实验成功!
----end----