Docker consul 的容器服务更新与发现

目录

[一. consul 的相关知识](#一. consul 的相关知识)

[1 什么是注册与发现](#1 什么是注册与发现)

[2. 什么是 consul](#2. 什么是 consul)

[3. zookeeper 和 consul 的区别](#3. zookeeper 和 consul 的区别)

[二. consul 部署](#二. consul 部署)

[1. consul 服务器](#1. consul 服务器)

[2. registrator 服务器](#2. registrator 服务器)

[三. consul-template](#三. consul-template)

[1. consul-template 的作用](#1. consul-template 的作用)

[2. consul-template 的具体部署运用](#2. consul-template 的具体部署运用)

[2.1 准备 template nginx 模板文件](#2.1 准备 template nginx 模板文件)

[配置并启动 template](#配置并启动 template)

[四. consul 多节点](#四. consul 多节点)


一. consul 的相关知识

1 什么是注册与发现

服务注册与发现是微服务架构中不可或缺的重要组件。起初服务都是单节点的,不保障高可用性,也不考虑服务的压力承载,服务之间调用单纯的通过接口访问。直到后来出现了多个节点的分布式架构,起初的解决手段是在服务前端负载均衡,这样前端必须要知道所有后端服务的网络位置,并配置在配置文件中。这里就会有几个问题:

  • 如果需要调用后端服务A-N,就需要配置N个服务的网络位置,配置很麻烦
  • 后端服务的网络位置变化,都需要改变每个调用者的配置

既然有这些问题,那么服务注册与发现就是解决这些问题的。后端服务A-N可以把当前自己的网络位置注册到服务发现模块,服务发现就以K-V的方式记录下来,K一般是服务名,V就是IP:PORT。服务发现模块定时的进行健康检查,轮询查看这些后端服务能不能访问的了。前端在调用后端服务A-N的时候,就跑去服务发现模块问下它们的网络位置,然后再调用它们的服务。这样的方式就可以解决上面的问题了,前端完全不需要记录这些后端服务的网络位置,前端和后端完全解耦!

2. 什么是 consul

consul 是 google 开源的一个使用go语言开发的服务管理软件。支持多数据中心、分布式高可用的、服务发现和配置共享。采用 Raft 算法,用来保证服务的高可用。内置了服务注册与发现框架、分布一致性协议实现、健康检查、Key/Value 存储、多数据中心方案,不再需要依赖其他工具(比如ZooKeeper等)。服务部署简单,只有一个可运行的二进制的包。每个节点都需要运行agent,他有两种运行模式 server 和 client。 每个数据中心官方建议需要3或5个server节点以保证数据安全,同时保证 server-leader 的选举能够正确的进行。

在 client 模式下,所有注册到当前节点的服务会被转发到 server 节点,本身是不持久化这些信息。

在server模式下,功能和client模式相似,唯一不同的是,它会把所有的信息持久化到本地,这样遇到故障,信息是可以被保留的。

server-leader是所有server节点的老大,它和其它server节点不同的是,它需要负责同步注册的信息给其它的server节点,同时也要负责各个节点的健康监测。

consul 提供的一些关键特性:
服务注册与发现: consul 通过DNS或者HTTP接口使服务注册和服务发现变的很容易,一些外部服务,例如saas提供的也可以一样注册。
健康检查: 健康检测使consul可以快速的告警在集群中的操作。和服务发现的集成,可以防止服务转发到故障的服务上面。
Key/Value存储 :一个用来存储动态配置的系统。提供简单的HTTP接口,可以在任何地方操作。
多数据中心:无需复杂的配置,即可支持任意数量的区域。

安装 consul 是用于服务注册,也就是容器本身的一些信息注册到consul里面,其他程序可以通过consul获取注册的相关服务信息,这就是服务注册与发现。

3. zookeeper 和 consul 的区别

zookeeper 使用临时节点特性来用于服务发现(当服务断开时,临时节点删除)这种服务发现机制比心跳检测更精致,复杂,但是同样也有一些固有的扩展性问题和增加客户端复杂性,所有的服务端都必须维持同 zookeeper 的活动连接。

consul 的服务发现机制:Consul 在集群的每一个节点都运行一个客户端,这些客户端就是 gossip pool(分布式健康检查 分布式健康检查)的一部分,gossip 协议实现在服务宕机发现上很高效,无论服务集群中服务数多少,Consul 可以通过简单的检查服务返回200状态来进行健康检查。

|-------------------|-----------------------|---------------|
| 对比的项目 | consul | zookeeper |
| 一致性协议 | cp模型 | cp模型 |
| 健康检查 | TCP/HTTP/gRPC/Cmd | KeepAlive |
| 负载均衡策略 | Fabio | - |
| 雪崩保护 | | |
| 自动注销实例 | 不支持 | 支持 |
| 访问协议 | HTTP/DNS | TCP |
| 监听支持 | 支持 | 支持 |
| 多数据中心 | 支持 | 不支持 |
| 跨注册中心同步 | 支持 | 不支持 |
| SpringCloud集成 | 支持 | 不支持 |
| Dubbo集成 | 不支持 | 支持 |
| K8s集成 | 支持 | 不支持 |

二. consul 部署

1. consul 服务器

复制代码
1. 建立 Consul 服务
mkdir /data/consul
cp consul_0.9.2_linux_amd64.zip /data/consul
cd /data/consul
unzip consul_0.9.2_linux_amd64.zip
mv consul /usr/local/bin/  #方便全局访问和执行 consul 这个程序

//设置代理,在后台启动 consul 服务端
 consul agent \
-server \
-bootstrap \
-ui \
-data-dir=/var/lib/consul-data \
-bind=192.168.10.23 \
-client=0.0.0.0 \
-node=consul-server01 &> /var/log/consul.log &


----------------------------------------------------------------------------------------------------------
-server: 以server身份启动。默认是client。
-bootstrap :用来控制一个server是否在bootstrap模式,在一个数据中心中只能有一个server处于bootstrap模式,当一个server处于 bootstrap模式时,可以自己选举为 server-leader。
-bootstrap-expect=2 :集群要求的最少server数量,当低于这个数量,集群即失效。
-ui :指定开启 UI 界面,这样可以通过 http://localhost:8500/ui 这样的地址访问 consul 自带的 web UI 界面。
-data-dir :指定数据存储目录。
-bind :指定用来在集群内部的通讯地址,集群内的所有节点到此地址都必须是可达的,默认是0.0.0.0。
-client :指定 consul 绑定在哪个 client 地址上,这个地址提供 HTTP、DNS、RPC 等服务,默认是 127.0.0.1。
-node :节点在集群中的名称,在一个集群中必须是唯一的,默认是该节点的主机名。
-datacenter :指定数据中心名称,默认是dc1。

查看各端口,并知道其含义

复制代码
netstat -natp | grep consul

启动consul后默认会监听5个端口:
8300:replication、leader farwarding的端口
8301:lan cossip的端口
8302:wan gossip的端口
8500:web ui界面的端口
8600:使用dns协议查看节点信息的端口
复制代码
#查看集群状态
consul operator raft list-peers

consul info | grep leader

通过 http api 获取集群信息

复制代码
通过 http api 获取集群信息
curl 127.0.0.1:8500/v1/status/peers 			#查看集群server成员
curl 127.0.0.1:8500/v1/status/leader			#集群 server-leader
curl 127.0.0.1:8500/v1/catalog/services			#注册的所有服务
curl 127.0.0.1:8500/v1/catalog/nginx			#查看 nginx 服务信息
curl 127.0.0.1:8500/v1/catalog/nodes			#集群节点详细信息

通过 IP 加 consul 的默认端口,还可以登录到 ui 界面进行相关的查看与维护

2. registrator 服务器

复制代码
容器服务自动加入 Nginx 集群
1. 安装 Gliderlabs/Registrator
Gliderlabs/Registrator 可检查容器运行状态自动注册,还可注销 docker 容器的服务到服务配置中心。目前支持 Consul、Etcd 和 SkyDNS2。

docker run -d \
--name=registrator \
--net=host \
-v /var/run/docker.sock:/tmp/docker.sock \
--restart=always \
gliderlabs/registrator:latest \
--ip=192.168.44.60 \
consul://192.168.44.70:8500

----------------------------------------------------------------------------------------------------------
--net=host :把运行的docker容器设定为host网络模式。
-v /var/run/docker.sock:/tmp/docker.sock :把宿主机的Docker守护进程(Docker daemon)默认监听的Unix域套接字挂载到容器中。
--restart=always :设置在容器退出时总是重启容器。
--ip :刚才把network指定了host模式,所以我们指定ip为宿主机的ip。
consul :指定consul服务器的IP和端口。

//容器服务自动加入 Nginx 集群
1. 安装 Gliderlabs/Registrator
Gliderlabs/Registrator 可检查容器运行状态自动注册,还可注销 docker 容器的服务到服务配置中心。目前支持 Consul、Etcd 和 SkyDNS2。
 
docker run -d \
--name=registrator \
--net=host \
-v /var/run/docker.sock:/tmp/docker.sock \
--restart=always \
gliderlabs/registrator:latest \
--ip=192.168.44.60 \
consul://192.168.44.70:8500
 
----------------------------------------------------------------------------------------------------------
--net=host :把运行的docker容器设定为host网络模式。
-v /var/run/docker.sock:/tmp/docker.sock :把宿主机的Docker守护进程(Docker daemon)默认监听的Unix域套接字挂载到容器中。
--restart=always :设置在容器退出时总是重启容器。
--ip :刚才把network指定了host模式,所以我们指定ip为宿主机的ip。
consul :指定consul服务器的IP和端口。
----------------------------------------------------------------------------------------------------------
复制代码
测试服务发现功能是否正常
docker run -itd -p:83:80 --name test-01 -h test01 nginx
docker run -itd -p:84:80 --name test-02 -h test02 nginx
docker run -itd -p:88:80 --name test-03 -h test03 httpd
docker run -itd -p:89:80 --name test-04 -h test04 httpd				

#-h:设置容器主机名
复制代码
验证 http 和 nginx 服务是否注册到 consul

浏览器中,输入 http://192.168.44.70:8500,在 Web 页面中"单击 NODES",
然后单击"consurl-server01",会出现 5 个服务。
复制代码
在consul服务器使用curl测试连接服务器
curl 127.0.0.1:8500/v1/catalog/services

三. consul-template

1. consul-template 的作用

Consul-Template 是基于 Consul 的自动替换配置文件的应用。Consul-Template 是一个守护进程,用于实时查询 Consul 集群信息,并更新文件系统上任意数量的指定模板,生成配置文件。更新完成以后,可以选择运行 shell 命令执行更新操作,重新加载 Nginx。

Consul-Template 可以查询 Consul 中的服务目录、Key、Key-values 等。这种强大的抽象功能和查询语言模板可以使 Consul-Template 特别适合动态的创建配置文件。例如:创建 Apache/Nginx Proxy Balancers 、 Haproxy Backends 等。

2. consul-template 的具体部署运用

2.1 准备 template nginx 模板文件

复制代码
//在consul服务器上操作
vim /data/consul/nginx.ctmpl
#定义nginx upstream一个简单模板
upstream http_backend {
  {{range service "nginx"}}
   server {{.Address}}:{{.Port}};
   {{end}}
}
 
#定义一个server,监听8000端口,反向代理到upstream
server {
    listen 8000;
    server_name localhost 192.168.44.70;
    access_log /var/log/nginx/test.com-access.log;                            #修改日志路径
    index index.html index.php;
    location / {
        proxy_set_header HOST $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header Client-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_pass http://http_backend;
    }
}

编译安装 nginx

复制代码
编译安装nginx
yum -y install pcre-devel zlib-devel gcc gcc-c++ make
useradd -M -s /sbin/nologin nginx
tar zxvf nginx-1.12.0.tar.gz -C /data/
cd /opt/nginx-1.12.0/
./configure --prefix=/usr/local/nginx --user=nginx --group=nginx && make -j 4 && make install

ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin/

配置 nginx

复制代码
配置 nginx
vim /usr/local/nginx/conf/nginx.conf
......
http {
     include       mime.types;
     include  vhost/*.conf;       				#添加虚拟主机目录
     default_type  application/octet-stream;
......

//创建虚拟主机目录
mkdir /usr/local/nginx/conf/vhost 

//创建日志文件目录
mkdir /var/log/nginx
  
//启动nginx
nginx

配置并启动 template

复制代码
配置并启动 template
unzip consul-template_0.19.3_linux_amd64.zip 
mv consul-template /usr/local/bin/

//在前台启动 template 服务,启动后不要按 ctrl+c 中止 consul-template 进程。
consul-template --consul-addr 192.168.44.70:8500 \
--template "/opt/consul/nginx.ctmpl:/usr/local/nginx/conf/vhost/kgc.conf:/usr/local/nginx/sbin/nginx -s reload" \
--log-level=info

打开一个终端查看生成配置文件

复制代码
cat /usr/local/nginx/conf/vhost/test.conf

访问 template-nginx

复制代码
[root@localhost opt]#docker ps -a
CONTAINER ID   IMAGE                           COMMAND                  CREATED             STATUS             PORTS                               NAMES
45ae012d2b69   httpd                           "httpd-foreground"       About an hour ago   Up About an hour   0.0.0.0:89->80/tcp, :::89->80/tcp   test-04
51009a77a887   httpd                           "httpd-foreground"       About an hour ago   Up About an hour   0.0.0.0:88->80/tcp, :::88->80/tcp   test-03
a8b4c0d691ab   nginx                           "/docker-entrypoint...."   About an hour ago   Up About an hour   0.0.0.0:84->80/tcp, :::84->80/tcp   test-02
85858187ddef   nginx                           "/docker-entrypoint...."   About an hour ago   Up About an hour   0.0.0.0:83->80/tcp, :::83->80/tcp   test-01
7f824f34eb47   gliderlabs/registrator:latest   "/bin/registrator --..."   About an hour ago   Up About an hour                                       registrator


[root@localhost opt]#docker exec -it 85858187ddef bash
root@test01:/# echo "nihao  xyl  web83" > /usr/share/nginx/html/index.html
root@test01:/# 
root@test01:/# exit
exit
[root@localhost opt]#docker exec -it a8b4c0d691ab bash
root@test02:/# echo "nihao  xyl  web84" > /usr/share/nginx/html/index.html
root@test02:/# exit
exit

浏览器访问:192.168.44.70:8000 ,并不断刷新

增加一个 nginx 容器节点

复制代码
增加一个 nginx 容器节点,测试服务发现及配置更新功能。
docker run -itd -p:85:80 --name test-05 -h test05 nginx

观察 template 服务,会从模板更新/usr/local/nginx/conf/vhost/test.conf 文件内容,并且重载 nginx 服务。

查看/usr/local/nginx/conf/vhost/test.conf 文件内容

复制代码
cat /usr/local/nginx/conf/vhost/test.conf

请求正常轮询到各个容器节点上

删除也可以

四. consul 多节点

将之前机器的配置拷过来

启动 Consul 服务端实例

复制代码
consul agent \
-server \
-ui \
-data-dir=/var/lib/consul-data \
-bind=192.168.44.50 \
-client=0.0.0.0 \
-node=consul-server02 \
-enable-script-checks=true  \
-datacenter=dc1  \
-join 192.168.44.70 &> /var/log/consul.log &

-enable-script-checks=true :设置检查服务为可用
-datacenter : 数据中心名称
-join :加入到已有的集群中

查看状态

复制代码
consul members

consul operator raft list-peers

脱离consul集群的方法

复制代码
consul leave
相关推荐
时迁24734 分钟前
【k8s】k8s是怎么实现自动扩缩的
云原生·容器·kubernetes·k8s
诡异森林。4 小时前
Docker--Docker网络原理
网络·docker·容器
ALex_zry4 小时前
Docker Macvlan网络配置实战:解决“network already exists“错误
网络·docker·php
IT小辉同学4 小时前
Docker如何更换镜像源提高拉取速度
spring cloud·docker·eureka
matrixlzp5 小时前
K8S Service 原理、案例
云原生·容器·kubernetes
GnixAij6 小时前
Docker SSH端口转发
docker·ssh
angushine6 小时前
让Docker端口映射受Firewall管理而非iptables
运维·docker·容器
玄明Hanko7 小时前
生产环境到底能用Docker部署MySQL吗?
后端·mysql·docker
玄明Hanko7 小时前
Quarkus+Docker最全面完整教程:手把手搞定Java云原生
后端·docker·云原生
SimonLiu0098 小时前
清理HiNas(海纳斯) Docker日志并限制日志大小
java·docker·容器