Haproxy

haproxy基础实验:

环境:

**haproxy:**172.25.254.100

web1: 172.25.254.10 均为nat网络

web2: 172.25.254.20

haproxy端配置:

[root@www ~]# yum install haproxy -y
[root@www ~]# vim /etc/haproxy/haproxy.cfg 

.........................................................................................
#配置在defauls模块下面
listen webcluster  # 定义名为"webcluster"的监听
bind *:80         # 绑定到所有 IP 地址的 80 端口
mode http         # 设置工作模式为 HTTP
balance roundrobin  # 设置负载均衡算法为轮询(roundrobin)
server web1 172.25.254.10:80  # 定义后端服务器"web1",其 IP 为 172.25.254.10,端口为 80
server web2 172.25.254.20:80  # 定义后端服务器"web2",其 IP 为 172.25.254.20,端口为 80
.........................................................................................


[root@www ~]# systemctl restart haproxy.service 
[root@www ~]# curl 172.25.254.100
web1
[root@www ~]# curl 172.25.254.100
web2

web1端配置:

[root@www ~]# yum install nginx -y
[root@www ~]# echo web1 > /usr/share/nginx/html/index.html 
[root@www ~]# systemctl restart nginx
[root@www ~]# curl 172.25.254.10
web1

web2端配置:

[root@www ~]# yum install nginx -y
[root@www ~]# echo web1 > /usr/share/nginx/html/index.html 
[root@www ~]# systemctl restart nginx
[root@www ~]# curl 172.25.254.20
web2

haproxy的server详细配置:

.............................................................................
server web1 172.25.254.10:80 check inter 2 fall 3 rise 5 weight 2 disabled
server web2 172.25.254.20:80 check inter 2 fall 3 rise 5 weight 1 disabled
server web_sorry 172.25.254.100:8080 backup


check:启用对该服务器的健康检查。
inter 2:表示健康检查的间隔时间为 2 秒。
fall 3:如果连续 3 次健康检查失败,就认为该服务器不可用。
rise 5:如果服务器不可用,当连续 5 次健康检查成功时,将其重新标记为可用。
weight 2:为该服务器设置权重为 2,通常在负载均衡算法中用于决定分配请求的比例。
disabled:不可用
backup:备份使用,当所有主服务器挂机后使用
.............................................................................






#测试:
#在172.25.254端为backup添加配置
[root@www ~]# yum install httpd -y
[root@www ~]# echo backup > /var/www/html/index.html
[root@www ~]# vim /etc/httpd/conf/httpd.conf 
Listen 8080
[root@www ~]# systemctl restart httpd
[root@www ~]# systemctl restart haproxy.service 
[root@www ~]# curl 172.25.254.100
backup

haproxy的多进程设置:

global
..........................................
stats socket /var/lib/haproxy/stats
nbproc 2  # 设置工作进程数量为 2
cpu-map 1 0  # 将第一个工作进程绑定到 CPU 0
cpu-map 2 1  # 将第二个工作进程绑定到 CPU 1

..........................................


#查看添加的多进程
[root@www ~]# systemctl restart haproxy.service 
[root@www ~]# pstree -p | grep haproxy
           |-haproxy(33720)-+-haproxy(33722)
           |                `-haproxy(33723)

haproxy的socat工具的使用

socat工具可以动态地对我们的服务器的状态信息以及权重进行调整,而不用进入配置文件直接修改文件信息,当使用该工具时,第一次按照原来的算法执行,后面按照socat调整的值为准

[root@www ~]# vim /etc/haproxy/haproxy.cfg 
stats socket /var/lib/haproxy/stats mode 600 level admin   #socket提权

#将web1的权重值修改为5
[root@www ~]# echo "set weight webcluster/web1 5 " | socat stdio /var/lib/haproxy/stats 

#查看web1的权重值
[root@www ~]# echo "get weight webcluster/web1 " | socat stdio /var/lib/haproxy/stats 
5 (initial 2)

#停掉web1
[root@www ~]# echo "disable server webcluster/web1 " | socat stdio /var/lib/haproxy/stats 

#启用服务器
[root@www ~]# echo "enable server webcluster/web1 " | socat stdio /var/lib/haproxy/stats 




#socat对多进程的处理,通过添加stats文件的方式实现
[root@www ~]# vim /etc/haproxy/haproxy.cfg 
........................................................................
 stats socket /var/lib/haproxy/stats1 mode 600 level admin process 1
 stats socket /var/lib/haproxy/stats2 mode 600 level admin process 2
 nbproc 2
 cpu-map 1 0
 cpu-map 2 1
........................................................................


#测试

#将web1的第一个进程的weight值设置为2
[root@www ~]# echo "set weight webcluster/web1 2 " | socat stdio /var/lib/haproxy/stats1 

[root@www ~]# echo "get weight webcluster/web1 " | socat stdio /var/lib/haproxy/stats1
2 (initial 2)


#将web2的第二个进程的weight值设置为5
[root@www ~]# echo "set weight webcluster/web1 5 " | socat stdio /var/lib/haproxy/stats2

[root@www ~]# echo "get weight webcluster/web1 " | socat stdio /var/lib/haproxy/stats2
5 (initial 2)

haproxy的算法

静态算法:

static-rr:

基于权重的轮询调度,不支持运行时利用socat进行权重的动态调整(只支持0和1,不支持其它值,只能改为上线或者下线)及后端服务器慢启动,其后端主机数量没有限制,相当于LVS中的 wrr

first:

根据服务器在列表中的位置,自上而下进行调度,但是其只会当第一台服务器的连接数达到上限,新请求才会分配给下一台服务,因此会忽略服务器的权重设置,此方式使用较少不支持用socat进行动态修改权重,可以设置0和1,可以设置其它值但无效

动态算法:

roundrobin:

基于权重的轮询动态调度算法,支持权重的运行时调整,不同于lvs中的rr轮训模式,HAProxy中的roundrobin支持慢启动,其每个后端backend中最多支持4095个real server,支持对real server权重动态调整,roundrobin为默认调度算法,此算法使用广泛 ,静态算法后端real server个数不限。

leastconn:

leastconn加权的最少连接的动态,支持权重的运行时调整和慢启动(相当于lvs的wlc),即:根据当前连接最少的后端服务器而非权重进行优先调度(新客户端连接),比较适合长连接的场景使用,比如:MySQL等场景。

haproxy状态页

[root@www ~]# vim /etc/haproxy/haproxy.cfg 

...............................................................................
listen stats  # 定义监听模式为 HTTP
        mode http  # 明确为 HTTP 模式
        bind *:9999  # 绑定到所有接口的 9999 端口
        stats enable  # 启用统计功能
        stats refresh 3  # 设置统计信息刷新的时间间隔为 3 秒
        stats uri /status  # 设置统计信息的 URI 为 /status
        stats auth lee:lee  # 设置统计信息的认证用户名为 lee,密码为 lee
................................................................................


[root@www ~]# restart haproxy.service

#测试添加的状态页

浏览器输入:172.254.25.100:9999/status

haproxy的cookie的会话保持

[root@www ~]# vim /etc/haproxy/haproxy.cfg 

.........................................................................................
listen webcluster
        bind *:80
        mode http
        balance roundrobin
        cookie WEBCOOKIE insert nocache indirect  # 设置名为 WEBCOOKIE 的 Cookie,以插入方 
                                                    式添加,不缓存,间接模式
        server web1 172.25.254.10:80 cookie lee1 check inter 2 fall 3 rise 5 weight 2
        server web2 172.25.254.20:80 cookie lee2 check inter 2 fall 3 rise 5 weight 1
.........................................................................................



#测试
[root@www ~]# curl -i 172.25.254.100
HTTP/1.1 200 OK
server: nginx/1.20.1
date: Sun, 11 Aug 2024 12:17:17 GMT
content-type: text/html
content-length: 5
last-modified: Sun, 11 Aug 2024 08:32:48 GMT
etag: "66b87730-5"
accept-ranges: bytes
set-cookie: WEBCOOKIE=lee1; path=/
cache-control: private
web1

haproxy的ACL

#基于域名匹配的acl

frontend webcluster
        bind *:80
        mode http
        acl test hdr_dom(host) -i www.timinglee.org   #基于域名匹配的acl
        use_backend webcluster-host if test
        default_backend default-host

backend webcluster-host
        mode http
        server web1 172.25.254.10:80 check inter 2 fall 3 rise 5

backend default-host
        mode http
        server web2 172.25.254.20:80 check inter 2 fall 3 rise 5

#测试
[root@www ~]# curl www.timinglee.org
web1

#host 字段以 .org 结尾

frontend webcluster
        bind *:80
        mode http
        acl test hdr_end(host) -i .org
        use_backend webcluster-host if test
        default_backend default-host

backend webcluster-host
        mode http
        server web1 172.25.254.10:80 check inter 2 fall 3 rise 5

backend default-host
        mode http
        server web2 172.25.254.20:80 check inter 2 fall 3 rise 5


#测试
[root@www ~]# curl www.timinglee.org
web1

#域名中包含lee子串的匹配

frontend webcluster
        bind *:80
        mode http
        acl test base_sub -m sub lee
        use_backend webcluster-host if test
        default_backend default-host

backend webcluster-host
        mode http
        server web1 172.25.254.10:80 check inter 2 fall 3 rise 5

backend default-host
        mode http
        server web2 172.25.254.20:80 check inter 2 fall 3 rise 5


#测试
[root@www ~]# curl www.timinglee.lee
web1

#路径部分是否包含子字符串lee

frontend webcluster
        bind *:80
        mode http
        acl test path_sub -m sub lee
        use_backend webcluster-host if test
        default_backend default-host

backend webcluster-host
        mode http
        server web1 172.25.254.10:80 check inter 2 fall 3 rise 5

backend default-host
        mode http
        server web2 172.25.254.20:80 check inter 2 fall 3 rise 5


#测试
[root@www ~]# curl www.timinglee.lee
web2

#匹配源ip是否包含指定的ip

frontend webcluster
        bind *:80
        mode http
        acl test src 172.25.254.100 192.168.0.0/24
        use_backend webcluster-host if test
        default_backend default-host

backend webcluster-host
        mode http
        server web1 172.25.254.10:80 check inter 2 fall 3 rise 5

backend default-host
        mode http
        server web2 172.25.254.20:80 check inter 2 fall 3 rise 5

#测试
[root@www ~]# curl 172.25.254.100
web1

#拒绝指定的源ip

frontend webcluster
        bind *:80
        mode http
        acl test src 172.25.254.100 192.168.0.0/24
        #use_backend webcluster-host if test
        http-request deny if test
        default_backend default-host

backend webcluster-host
        mode http
        server web1 172.25.254.10:80 check inter 2 fall 3 rise 5

backend default-host
        mode http
        server web2 172.25.254.20:80 check inter 2 fall 3 rise 5




#测试
[root@www ~]# curl 172.25.254.100
<html><body><h1>403 Forbidden</h1>
Request forbidden by administrative rules.
</body></html>

#匹配浏览器类型

frontend webcluster
        bind *:80
        mode http
        acl badwebrowers hdr_sub(User-Agent) -i curl wget
        #use_backend webcluster-host if test
        http-request deny if badwebrowers
        default_backend default-host

backend webcluster-host
        mode http
        server web1 172.25.254.10:80 check inter 2 fall 3 rise 5

backend default-host
        mode http
        server web2 172.25.254.20:80 check inter 2 fall 3 rise 5


[root@www ~]# curl 172.25.254.100
<html><body><h1>403 Forbidden</h1>
Request forbidden by administrative rules.
</body></html>

#acl基于文件后缀名分离实现动静分离

frontend webcluster
        bind *:80
        mode http

        acl static path_end -i .jpg .png .css .js .html
        acl php path_end -i .php



        use_backend webcluster-host if php
        default_backend default-host

backend webcluster-host
        mode http
        server web1 172.25.254.10:80 check inter 2 fall 3 rise 5

backend default-host
        mode http
        server web2 172.25.254.20:80 check inter 2 fall 3 rise 5



#web1端更改配置
[root@www ~]# systemctl stop nginx.service 
[root@www ~]# yum install httpd -y
[root@www ~]# yum install php-fpm -y
[root@www ~]# vim /var/www/html/index.php
<?php
        phpinfo();
?>

#测试:

#acl基于文件路径分离实现动静分离

frontend webcluster
        bind *:80
        mode http

        acl url_static path_end -m sub /static /images /html
        acl url_app path_end -m sub /api
        use_backend webcluster-host if url_app
        default_backend default-host

backend webcluster-host
        mode http
        server web1 172.25.254.10:80 check inter 2 fall 3 rise 5

backend default-host
        mode http
        server web2 172.25.254.20:80 check inter 2 fall 3 rise 5





#更改web1端配置
[root@www ~]# mkdir /var/www/html/api
[root@www ~]# echo api > /var/www/html/api/index.html
[root@www ~]# systemctl restart httpd

#测试

haproxy自定义错误页面

[root@www ~]# mkdir /etc/haproxy/error/ -p  #创建存放错误页面的目录
[root@www ~]# cp /usr/share/haproxy/503.http /etc/haproxy/error/
[root@www ~]# vim /etc/haproxy/error/503.http 
<html>
<meta http-equiv=content-type content=text/html;charset=utf-8>  #加入utf8


<body><h1>I am hero <h1>
                 yulang come
</body></html>



defaults
   ..............................................................
    timeout check           10s
    maxconn                 3000
    errorfile 503 /etc/haproxy/error/503.http   #错误页面加入




#停掉服务测试
[root@www ~]# systemctl stop nginx.service 
[root@www ~]# systemctl stop httpd.service

#测试:

haproxy基于mysql的四层负载

[root@www ~]# vim /etc/haproxy/haproxy.cfg 
listen mysql
        bind :3306
        mode tcp
        balance leastconn
        server db1 172.25.254.10:3306 check
        server db2 172.25.254.20:3306 check





#后端服务器配置
[root@www mysql]# yum install mariadb-server -y
[root@www ~]# vim /etc/my.cnf.d/mysql-server.cnf 
[mysqld]
server-id=1/2

[root@www ~]# systemctl restart mariadb.service 
[root@www ~]# mysql -e "grant all on *.* to lee@'%' identified by 'lee';"




#测试
[root@www mysql]# mysql -ulee -plee -h 172.25.254.100 -e "select @@server_id"
+-------------+
| @@server_id |
+-------------+
|           1 |
+-------------+

haproxy的https实现

#制作证书
[root@www ~]# mkdir /etc/haproxy/certs  
[root@www ~]# openssl req -newkey rsa:2048 -nodes -sha256 -keyout /etc/haproxy/certs/timinglee.org.key -x509 -days -out /etc/haproxy/certs/timinglee.org.crt


#更改haproxy配置文件
[root@www ~]# vim /etc/haproxy/haproxy.cfg 
frontend webserver
    bind *:80
    redirect scheme https if !{ ssl_fc }  # 全站加密
    mode http
    use_backend webcluster

frontend webserver-https
    bind *:443 ssl crt /etc/haproxy/certs/timinglee.org.pem
    mode http
    use_backend webcluster

backend webcluster
    mode http
    balance roundrobin
    server web1 172.25.254.10:80 check inter 3s fall 3 rise 5
    server web2 172.25.254.20:80 check inter 3s fall 3 rise 5

#测试

相关推荐
Karoku0661 小时前
【docker集群应用】Docker网络与资源控制
运维·数据库·docker·容器
梦游钓鱼1 小时前
pyshark安装使用,ubuntu:20.04
linux·运维·ubuntu
战族狼魂1 小时前
CentOS 上安装各种应用的命令行总结
linux·运维·centos
学Linux的语莫2 小时前
ansible变量
linux·运维·服务器·ansible
爱吃喵的鲤鱼2 小时前
Linux——文件系统清尾、动静态库
linux·运维·服务器
最数据2 小时前
Linux或者Docker中时区查询和修改(差8小时问题)
linux·运维·服务器·docker·.net
mahuifa3 小时前
ubuntu设置程序开机自启动
服务器·ubuntu·开机自启动
皓月盈江3 小时前
Linux宝塔部署wordpress网站更换服务器IP后无法访问管理后台和打开网站页面显示错乱
linux·服务器·wordpress·无法访问wordpess后台·打开网站页面错乱·linux宝塔面板·wordpress更换服务器
KeyBordkiller3 小时前
PVE相关名词通俗表述方式———多处细节实验(方便理解)
linux·服务器·网络
与君共勉121383 小时前
Jenkins-Ansible 插件相关用法
linux·运维·ansible·jenkins