Docker consul的容器服务更新与发现

consul 服务自动发现和注册

1.什么是服务注册与发现

  • 服务注册与发现是微服务架构中不可或缺的重要组件。起初服务都是单节点的,不保障高可用性,也不考虑服务的压力承载,服务之间调用单纯的通过接口访问。直到后来出现了多个节点的分布式架构,起初的解决手段是在服务前端负载均衡,这样前端必须要知道所有后端服务的网络位置,并配置在配置文件中。这里就会有几个问题:

    ●如果需要调用后端服务A-N,就需要配置N个服务的网络位置,配置很麻烦

    ●后端服务的网络位置变化,都需要改变每个调用者的配置

  • 既然有这些问题,那么服务注册与发现就是解决这些问题的。后端服务A-N可以把当前自己的网络位置注册到服务发现模块,服务发现就以K-V的方式记录下来,K一般是服务名,V就是IP:PORT。服务发现模块定时的进行健康检查,轮询查看这些后端服务能不能访问的了。前端在调用后端服务A-N的时候,就跑去服务发现模块问下它们的网络位置,然后再调用它们的服务。这样的方式就可以解决上面的问题了,前端完全不需要记录这些后端服务的网络位置,前端和后端完全解耦!

2.什么是consul

  • consul是google开源的一个使用go语言开发的服务管理软件。支持多数据中心、分布式高可用的、服务发现和配置共享。采用Raft算法,用来保证服务的高可用。内置了服务注册与发现框架、分布一致性协议实现、健康检查、Key/Value存储、多数据中心方案,不再需要依赖其他工具(比如ZooKeeper等)。服务部署简单,只有一个可运行的二进制的包。每个节点都需要运行agent,他有两种运行模式server 和 client。 每个数据中心官方建议需要3或5个server节点以保证数据安全,同时保证server-leader的选举能够正确的进行。

  • 在client模式下,所有注册到当前节点的服务会被转发到server节点,本身是不持久化这些信息。

  • 在server模式下,功能和client模式相似,唯一不同的是,它会把所有的信息持久化到本地,这样遇到故障,信息是可以被保留的。

  • server-leader是所有server节点的老大,它和其它server节点不同的是,它需要负责同步注册的信息给其它的server节点,同时也要负责各个节点的健康监测。

3.consul提供的一些关键特性

  • 服务注册与发现:consul通过DNS或者HTTP接口使服务注册和服务发现变的很容易,一些外部服务,例如saas提供的也可以一样注册。

  • 健康检查:健康检测使consul可以快速的告警在集群中的操作。和服务发现的集成,可以防止服务转发到故障的服务上面。

  • Key/Value存储:一个用来存储动态配置的系统。提供简单的HTTP接口,可以在任何地方操作。

  • 多数据中心:无需复杂的配置,即可支持任意数量的区域。

  • 安装consul是用于服务注册,也就是容器本身的一些信息注册到consul里面,其他程序可以通过consul获取注册的相关服务信息,这就是服务注册与发现。

consul 部署

2 复制代码
consul 服务器         192.168.60.111   运行consul服务、nginx服务、consul-template守护进程
registrator 服务器    192.168.60.11    运行registrator容器、运行nginx容器
复制代码
systemctl stop firewalld.service
setenforce 0

------------------------ consul 服务器 -------------------------

1.建立Consul服务

bash 复制代码
mkdir /opt/consul
cp consul_0.9.2_linux_amd64.zip /opt/consul
cd /opt/consul
unzip consul_0.9.2_linux_amd64.zip
mv consul /usr/local/bin/

//设置代理,在后台启动 consul 服务端

bash 复制代码
consul agent \
-server \
-bootstrap \      ##其它consul 服务端不设置此项
-ui \
-data-dir=/var/lib/consul-data \
-bind=192.168.60.12 \
-client=0.0.0.0 \
-node=consul-server01 &> /var/log/consul.log &

----------------------------------------------------------------------------------------------------------
-server: 以server身份启动。默认是client。
-bootstrap :用来控制一个server是否在bootstrap模式,在一个数据中心中只能有一个server处于bootstrap模式,当一个server处于 bootstrap模式时,可以自己选举为 server-leader。
-bootstrap-expect=2 :集群要求的最少server数量,当低于这个数量,集群即失效。
-ui :指定开启 UI 界面,这样可以通过 http://localhost:8500/ui 这样的地址访问 consul 自带的 web UI 界面。
-data-dir :指定数据存储目录。
-bind :指定用来在集群内部的通讯地址,集群内的所有节点到此地址都必须是可达的,默认是0.0.0.0。
-client :指定 consul 绑定在哪个 client 地址上,这个地址提供 HTTP、DNS、RPC 等服务,默认是 127.0.0.1。
-node :节点在集群中的名称,在一个集群中必须是唯一的,默认是该节点的主机名。
-datacenter :指定数据中心名称,默认是dc1。
----------------------------------------------------------------------------------------------------------
bash 复制代码
netstat -natp | grep consul

启动consul后默认会监听5个端口:
8300:replication、leader farwarding的端口
8301:lan cossip的端口
8302:wan gossip的端口
8500:web ui界面的端口
8600:使用dns协议查看节点信息的端口
  1. 查看集群信息

#查看members状态

bash 复制代码
consul members
Node             Address             Status  Type    Build  Protocol  DC
consul-server01  192.168.60.12:8301  alive   server  0.9.2  2         dc1

#查看集群状态

bash 复制代码
consul operator raft list-peers
bash 复制代码
consul info | grep leader
	leader = true
	leader_addr = 192.168.60.12:8300
  1. 通过 http api 获取集群信息
bash 复制代码
curl 127.0.0.1:8500/v1/status/peers 			#查看集群server成员
curl 127.0.0.1:8500/v1/status/leader			#集群 server-leader
curl 127.0.0.1:8500/v1/catalog/services			#注册的所有服务
curl 127.0.0.1:8500/v1/catalog/nginx			#查看 nginx 服务信息
curl 127.0.0.1:8500/v1/catalog/nodes			#集群节点详细信息

-------- registrator服务器 --------

//容器服务自动加入 Nginx 集群

1.安装 Gliderlabs/Registrator

Gliderlabs/Registrator 可检查容器运行状态自动注册,还可注销 docker 容器的服务到服务配置中心。目前支持 Consul、Etcd 和 SkyDNS2。

bash 复制代码
docker run -d \
--name=registrator \
--net=host \
-v /var/run/docker.sock:/tmp/docker.sock \
--restart=always \
gliderlabs/registrator:latest \
--ip=192.168.60.11 \
consul://192.168.60.12:8500

----------------------------------------------------------------------------------------------------------
--net=host :把运行的docker容器设定为host网络模式。
-v /var/run/docker.sock:/tmp/docker.sock :把宿主机的Docker守护进程(Docker daemon)默认监听的Unix域套接字挂载到容器中。
--restart=always :设置在容器退出时总是重启容器。
--ip :刚才把network指定了host模式,所以我们指定ip为宿主机的ip。
consul :指定consul服务器的IP和端口。
----------------------------------------------------------------------------------------------------------

2.测试服务发现功能是否正常

bash 复制代码
docker run -itd -p:83:80 --name test-01 -h test01 nginx
docker run -itd -p:84:80 --name test-02 -h test02 nginx
docker run -itd -p:88:80 --name test-03 -h test03 httpd
docker run -itd -p:89:80 --name test-04 -h test04 httpd				#-h:设置容器主机名

3.验证 http 和 nginx 服务是否注册到 consul

浏览器中,输入 http://192.168.60.12:8500,在 Web 页面中"单击 NODES",然后单击"consurl-server01",会出现 5 个服务。

//在consul服务器使用curl测试连接服务器

bash 复制代码
curl 127.0.0.1:8500/v1/catalog/services 
{"consul":[],"httpd":[],"nginx":[]}

consul-template

  • Consul-Template是基于Consul的自动替换配置文件的应用。Consul-Template是一个守护进程,用于实时查询Consul集群信息,并更新文件系统上任意数量的指定模板,生成配置文件。更新完成以后,可以选择运行 shell 命令执行更新操作,重新加载 Nginx。

  • Consul-Template可以查询Consul中的服务目录、Key、Key-values 等。这种强大的抽象功能和查询语言模板可以使 Consul-Template 特别适合动态的创建配置文件。例如:创建Apache/Nginx Proxy Balancers 、 Haproxy Backends等。

1.准备 template nginx 模板文件

//在consul服务器上操作

bash 复制代码
vim /opt/consul/nginx.ctmpl
#定义nginx upstream一个简单模板
upstream http_backend {
  {{range service "nginx"}}
   server {{.Address}}:{{.Port}};
   {{end}}
}

#定义一个server,监听8000端口,反向代理到upstream
server {
    listen 8000;
    server_name localhost 192.168.60.12;
    access_log /var/log/nginx/kgc.com-access.log;							#修改日志路径
    index index.html index.php;
    location / {
        proxy_set_header HOST $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header Client-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_pass http://http_backend;
    }
}
  1. 配置并启动 template
bash 复制代码
unzip consul-template_0.19.3_linux_amd64.zip -d /opt/consul
cd /opt/consul
mv consul-template /usr/local/bin/

//在前台启动 template 服务,启动后不要按 ctrl+c 中止 consul-template 进程。

bash 复制代码
consul-template --consul-addr 192.168.60.12:8500 \
--template "/opt/consul/nginx.ctmpl:/etc/nginx/conf.d/nginx.conf:/usr/sbin/nginx -s reload" \
--log-level=info

//另外打开一个终端查看生成配置文件

bash 复制代码
upstream http_backend {

   server 192.168.60.11:83;

   server 192.168.60.11:84;

}

server {
    listen 8010;
    server_name localhost 192.168.60.12;
    access_log /var/log/nginx/cpdd.com-access.log;
    index index.html index.php;
    location / {
        proxy_set_header HOST $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header Client-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_pass http://http_backend;
    }
}
~  



总结

1.registrator 发现应用的网络位置(ip+port)发送给 consul server/client 的自动发现模块进行注册。

2.consul server 收集自动发现的信息,将所有需要注册的信息持久化本地可以通过 server-leader 将注册信息同步给其它server节点,以及对各个server节点做健康检查。

3.consul template 基于consul 的注册信息自动根据配置文件模版生成配置文件并替换。

4.代理服务器、负载均衡器 根据 consul template 生成的配置进行代理转发。

相关推荐
Jewel Q18 分钟前
QEMU、KVM、Docker、K8s(Kubernetes)
docker·容器·kubernetes
学Linux的语莫1 小时前
prometheus、grafana的docker搭建
docker·容器·prometheus
lisanmengmeng1 小时前
zentao的prod环境升级(一)
linux·运维·数据库·docker·容器·禅道
kkoral1 小时前
单机docker部署的redis sentinel,使用python调用redis,报错
redis·python·docker·sentinel
wuxingge3 小时前
k8s部署xxl-job
容器·kubernetes
juma90024 小时前
一维光栅拓扑BICs与COMSOL模拟的COMSOL光子晶体超表面单向辐射
consul
没有bug.的程序员4 小时前
微服务基础设施清单:必须、应该、可以、无需的四级分类指南
java·jvm·微服务·云原生·容器·架构
卡布叻_星星6 小时前
Docker之Windows与Linux不同架构部署理解
linux·windows·docker
weixin_462446236 小时前
【实战原创】Docker 清理指南:以 Coze Studio 为例的资源保留与清理实践(非万能方案)
docker·容器·eureka
hkNaruto6 小时前
【docker】docker exec -it 报错 open /dev/pts/0: operation not permitted
运维·docker·容器