关于 Consul 服务
- Consul是Go语言写的开源的服务发现软件
- Consul具有服务发现、健康检查、 服务治理、微服务熔断处理等功能
Consul 部署方式1: 直接在linux 上面部署 consul 集群
1 )下载
- 在各个服务器上 下载 consul 后解压并将其目录配置到环境变量中,方便调用 consul 命令
2 )部署: server端与搭建集群
- 准备3台服务器
服务器 启动
- server_1
- $
consul agent -server -bootstrap-expect 3 -node=server_1 -bind=192.168.1.10 -ui -data-dir=/root/consul_dir/data -client 0.0.0.0
-server
表示启动的是服务端-bootstrap-expect 3
表示待启动的服务数量-node
指定节点的名称-bind
指定绑定的当前的ip地址-ui
表示可以在web中访问-data-dir
指定的存储目录-client 0.0.0.0
表示所有客户端都可加入
- $
- server_2
- $
consul agent -server -bootstrap-expect 3 -node=server_2 -bind=192.168.1.11 -ui -data-dir=/root/consul_dir/data -client 0.0.0.0
- 可以继续在后面追加 -join 参数来追加到集群
- 目前不这么做,参考下面拆解
- $
- server_3
- $
consul agent -server -bootstrap-expect 3 -node=server_3 -bind=192.168.1.12 -ui -data-dir=/root/consul_dir/data -client 0.0.0.0
- $
服务器 加入
-
server_2
- $
consul join 192.168.1.10
- $
-
server_3
- $
consul join 192.168.1.10
- $
基于以上server端对应的集群搭建好了
3 )部署: client端与加入搭建集群
- 准备1台客户端
客户端 启动
- client_1
- $
consul agent -data-dir=/root/consul_dir/data -node=client_1 -bind=192.168.1.13 -ui -client 0.0.0.0
- $
客户端 加入
- client-01:
- $
consul join 192.168.1.10
- $
Consul 部署方式2: Docker 上面部署 consul 集群
和 Linux 里面的部署流程,基本一致
1 )文档
2 )下载镜像
- $
docker pull consul
3 )部署
-
3.1 启动创建第一个节点 consul1容器
- $
docker run --name consul1 -d -p 8500:8500 -p 8300:8300 -p 8301:8301 -p 8302:8302 -p 8600:8600 consul agent -server -bootstrap-expect=3 -ui -bind=0.0.0.0 -client=0.0.0.0
- 这个指定了端口,比较麻烦
- 或
- $
docker run --name consul1 -d -p 8500:8500 consul agent -server -bootstrap-expect=3 -ui -bind=0.0.0.0 -client=0.0.0.0
- 这个比较推荐
- $
-
3.2 启动第二个容器前需要找到 consul1容器的ip地址
- 方法1
- $
docker network ls
找到网络列表 - $
docker inspect NETWORKID
一般是 bridge 的网络
- $
- 方法2
- $
docker inspect --format='{``{.NetworkSettings.IPAddress}}' consul1
- 推荐
- $
- 假设找到的 ip 是: 192.168.1.10
- 方法1
-
3.3 启动第二个节点(端口8501), 加入到 consul1
- $
docker run --name consul2 -d -p 8501:8500 consul agent -server -ui -bootstrap-expect=3 -bind=0.0.0.0 -client=0.0.0.0 -join 192.168.1.10
- $
-
3.4 启动第三个节点(端口8502), 加入到 consul1
- $
docker run --name consul2 -d -p 8502:8500 consul agent -server -ui -bootstrap-expect=3 -bind=0.0.0.0 -client=0.0.0.0 -join 192.168.1.10
- $
-
3.5 启动一个consul客户端(端口8503), 加入到 consul1
- $
docker run --name consul_client1 -d -p 8503:8500 consul agent -ui -bind=0.0.0.0 -client=0.0.0.0 -join 192.168.1.10
- 客户端可以不指定端口
- $
4 )验证
- 目前3个服务端和1个服务器端都做好了,验证一下
- $
docker ps
- $
- 进入一个consul中查看
- $
docker exec -it consul1 consul members
- 可查看到集群的信息
- $
- 访问
- xxx.xxx.xxx.xxx:xxxx
- 上面任意一台机器ip和端口都可访问
- xxx.xxx.xxx.xxx:xxxx
- 如果里面用到了微服务,并发量不大的情况下,可以把多个consul服务端放在一台机器上
- 如果并发量比较大,就需要把consul部署在多台服务器上
- 部署到一台服务器的好处是,容器之间通信比较方便,默认是通过 bridge 网络桥接
在多台服务器搭建consul集群
1 )直接在 linux 服务器上运行 consul
- 同上方式,不再复述
2 )仍旧选择 docker 平台
-
注意,在
-join
时,涉及到不同主机的通信,需要借助物理的ip -
可以把docker容器直接映射在当前物理机上,使用
--net=host
参数,例如shelldocker run --net=host -e CONSUL_BIND_INTERFACE=ens33 -h=192.168.1.10 --name consul1 -v /consul_server/data:/consul/data consul agent -server -bootstrap-expect=3 -ui -bind=192.168.1.10 -client=0.0.0.0
shelldocker run --net=host -e CONSUL_BIND_INTERFACE=ens33 -h=192.168.1.11 --name consul2 -v /consul_server/data:/consul/data consul agent -server -bootstrap-expect=3 -ui -bind=192.168.1.11 -client=0.0.0.0 -join 192.168.1.10
shelldocker run --net=host -e CONSUL_BIND_INTERFACE=ens33 -h=192.168.1.12 --name consul3 -v /consul_server/data:/consul/data consul agent -server -bootstrap-expect=3 -ui -bind=192.168.1.12 -client=0.0.0.0 -join 192.168.1.10
-
如果要后台运行
nohup + 上面命令 + &
shellnohup docker run --net=host -e CONSUL_BIND_INTERFACE=ens33 -h=192.168.1.10 --name consul1 -v /consul_server/data:/consul/data consul agent -server -bootstrap-expect=3 -ui -bind=192.168.1.10 -client=0.0.0.0 &
shellnohup docker run --net=host -e CONSUL_BIND_INTERFACE=ens33 -h=192.168.1.11 --name consul2 -v /consul_server/data:/consul/data consul agent -server -bootstrap-expect=3 -ui -bind=192.168.1.11 -client=0.0.0.0 -join 192.168.1.10 &
shellnohup docker run --net=host -e CONSUL_BIND_INTERFACE=ens33 -h=192.168.1.12 --name consul3 -v /consul_server/data:/consul/data consul agent -server -bootstrap-expect=3 -ui -bind=192.168.1.12 -client=0.0.0.0 -join 192.168.1.10 &
shellnohup docker run --net=host -e CONSUL_BIND_INTERFACE=ens33 -h=192.168.1.13 --name consul4 consul agent -bind=192.168.1.13 -client=0.0.0.0 -join 192.168.1.10 &
-
相当于在物理机上运行consul, 注意上述ip可替换成hostname, 需要配置hostname, 因为ip可能会变化
-
以上consul集群部署好之后,就可以准备微服务集群和API网管集群了
Consule集群结合Swarm集群部署微服务项目
关于整体架构分层
-
A. 各个客户端 访问nginx
-
B. nginx 服务器,用于总体转发服务
-
C. API服务网关集群
- API服务网关可以配置到微服务集群中,这样就可以减少通信相关配置,具体看当时网络环境
- 需要注册到 consul
-
D. 微服务集群: 各类应用程序微服务
- 每个微服务需要注册到consul
-
E. consul服务注册集群
- 用于服务发现管理
-
F. 数据库集群
- 目前数据库没有做集群处理
-
以下步骤是大体步骤,比较粗略,忽略一些细节赘述,仅供参考
1 )将各个微服务项目打包,比如goWeb应用, 这个步骤是前置任务
- 检查各个服务提供连接的配置信息,检查部署环境对应的配置信息是否正确
- 如果微服务镜像中配置了支持打包, 比如 Dockerfile中, 则忽略此步骤
-
如果在windows下开发,需要打包成linux程序
-
filename : 文件名
shellset CGO_ENABLED=0 set GOOS=linux set GOARCH=amd64 go build -o filename main.go
-
-
将文件上传,如果不是docker部署,需要将服务器的目录设置为可执行
- $
chmod -R 777 目录
- $
-
执行项目 $
nohup ./filename &
-
验证可正常运行
2 )准备mysql以及redis数据库等环境
- 启动 mysql
- $
docker run --name ityingMysql -p 3306:3306 -v /root/mysql/conf.d:/etc/mysql/conf.d -v /root/mysql/data:/var/lib/mysql -e MYSQL_ROOT_PASSWORD=123456 -d mysql
- $
- 启动 redis
- $
docker run -p 6379:6379 --name redis -v /docker/redis/redis.conf:/etc/redis/redis.conf -v /docker/redis/data:/data --restart=always -d redis redis-server /etc/redis/redis.conf
- $
3 )整理微服务应用
3.1 microA程序的 A微服务
配置dockerfile,简单示例仅供参考 micro_a_Dockerfile
Dockerfile
FROM centos
ADD /wwwroot/micro_a.tar.gz /root
WORKDIR /root
RUN chmod -R 777 micro_a
WORKDIR /root/micro_a
ENTRYPOINT ["./micro_a"]
3.2 microB程序 B微服务
配置dockerfile,简单示例仅供参考 micro_b_Dockerfile
dockerfile
FROM centos
ADD /wwwroot/micro_b.tar.gz /root
WORKDIR /root
RUN chmod -R 777 micro_b
WORKDIR /root/micro_b
ENTRYPOINT ["./micro_b"]
3.3 microC程序 C微服务
配置dockerfile,简单示例仅供参考 micro_c_Dockerfile
dockerfile
FROM centos
ADD /wwwroot/micro_c.tar.gz /root
WORKDIR /root
RUN chmod -R 777 micro_c
WORKDIR /root/micro_c
ENTRYPOINT ["./micro_c"]
4 )对微服务进行 镜像build
- $
docker build -f micro_a_Dockerfile -t micro_a_img:latest .
- $
docker build -f micro_b_Dockerfile -t micro_b_img:latest .
- $
docker build -f micro_c_Dockerfile -t micro_c_img:latest .
5 )配置微服务 docker-compose.yml
yml
version: "3"
services:
# 配置 redis 数据库
redis:
image: redis
restart: always
deploy:
replicas: 1 #副本数量
# 配置 a 微服务
micro_a:
image: micro_a_img
restart: always
deploy:
replicas: 6 # 副本数量
resources: # 资源
limits: #配置cpu
cpus: "0.3" # 设置该容器最多只能使用 30% 的 CPU
memory: 500M # 设置该容器最多只能使用 500M内存
restart_policy: #定义容器重启策略, 用于代替 restart 参数
condition: on-failure #只有当容器内部应用程序出现问题才会重启
# 配置 b 微服务
micro_b:
image: micro_b_img
restart: always
deploy:
replicas: 6 #副本数量
resources: #资源
limits: #配置cpu
cpus: "0.3" # 设置该容器最多只能使用 30% 的 CPU
memory: 500M # 设置该容器最多只能使用 500M内存
restart_policy: #定义容器重启策略, 用于代替 restart 参数
condition: on-failure #只有当容器内部应用程序出现问题才会重启
depends_on:
- captcha_micro
# 配置 c 微服务
micro_c:
image: micro_c_img
restart: always
ports:
- 8080:8080
deploy:
replicas: 6 #副本数量
resources: #资源
limits: #配置cpu
cpus: "0.3" # 设置该容器最多只能使用 30% 的 CPU
memory: 500M # 设置该容器最多只能使用 500M内存
restart_policy: #定义容器重启策略, 用于代替 restart 参数
condition: on-failure #只有当容器内部应用程序出现问题才会重启
depends_on:
- micro_b # 依赖b微服务
- 注: 上面用到了redis数据库, 但不是集群,当前只是一个简单的服务
6 )创建集群
- 关键命令如下
- $
docker swarm init --advertise-addr 192.168.1.10
- $
docker swarm join-token worker
- $
docker swarm join-token manager
- $
- 具体配置不再赘述,参考前文描述
7 )部署项目
- $
docker stack deploy --compose-file docker-compose.yml microSwarm
- microSwarm 是你给这套微服务集群起的响亮亮的名字
- 进行各个服务的启动后的验证,不再赘述
8 )调用测试
- 客户端连接 consul 服务器实现调试, 不再赘述
9 )注意事项
- 如果是前后端分离的项目
- 先集成运维环境,并测试, 这里一般包含集群
- 再部署后端服务,并测试服务的连通性
- 再部署前端服务,并测试接口服务的正常
- 如果,微服务环境运维环境复杂
- 还要检查微服务的版本迭代是否正常,否则上线可能会遇到问题