1.docker0的基本理解
安装完docker服务后,我们首先查看一下宿主机的网络配置
bash
ifconfig
我们可以看到,docker服务会默认在宿主机上创建一个虚拟网桥docker0,该网桥网络的名字称为docker0。它在内核层连通了其他物理或者虚拟网卡,这就可以将所有容器和宿主机都放在了同一个物理网络。Docker默认指定了docker0接口的IP和子网掩码,让宿主机和容器之间可以通过网桥相互通信。
2.使用默认的bridge演示容器网路的相互连通
这里我们使用之前构建的一个tomcat镜像来演示,可以参考之前的文章
8.使用Dockerfile构建centos7+jdk8+tomcat8镜像
2.1 测试容器与宿主机的网络互通
2.1.1 启动一个tomcat容器
先启动一个tomcat容器t1,对映射的端口为8901
bash
docker run -d -p 8901:8080 --name t1 donkey/tomcat8:1.0.0
2.1.2 查看容器的网络
bash
docker exec -it t1 ip addr
可以看到,容器的ip为172.17.0.2
2.1.3 查看宿主机的ip
可以看到,宿主机的ip 10.0.16.9
2.1.4 测试宿主机能够连通容器
bash
ping 172.17.0.2
2.1.5 测试宿主机能够连通容器
bash
# 先进入容器内部
docker exec -it t1 /bin/bash
# ping 宿主机
ping 10.0.16.9
2.2 测试容器与容器的网络互通
2.2.1 再启动一个tomcat容器
bash
docker run -d -p 8902:8080 --name t2 donkey/tomcat8:1.0.0
2.2.2 查看当前容器t2的ip地址
bash
docker exec -it t2 ip addr
t2的ip地址为172.17.0.3
2.1.3 测试容器之间能够连通
2.1.3.1 容器t1来ping容器t2
bash
docker exec -it t1 ping 172.17.0.3
2.1.3.2 容器t2来ping容器t1
bash
docker exec -it t2 ping 172.17.0.2
2.1.3.3 小结
通过上面t1和t2两个容器的实例我们可以看到,使用默认的网络bridge,容器之间是可以网络互通的
3.bridge模式容器网路的相互连通的原理
前面我们提到,只要服务器上安装了docker,那么宿主机上就会安装一个虚拟的docker0网卡。我们每启动一个docker容器,docker就会给容器分配一个ip。如我们启动的t1、t2两个容器
他们都有自己的分配的一个ip。
然后使用evth-pair技术,利用桥接模式,内部容器与外部宿主机进行连通。那什么是evth-pair技术呢?
evth-pair:就是一对虚拟设备接口,他们都是成对出现的,一段连着协议,一段彼此相连。正因为有有了这个特性,充当一个桥梁,连接各种虚拟网络设备。
以容器t1为例,我们查看他的ip地址:
t1容器有个72号ip地址,eth0@if73
再看宿主机:
有个73号ip,vethd926bf2@if72,这样容器t1的72绑定了宿主机上的73,宿主机上的73绑定了容器上的72,这样容器和宿主机组成了一对。也就是说,启动一个容器,会生成一对一对的网卡,也就是虚拟技术接口。
我们再看下容器t2是不是也是这样呢?
容器t2的ip地址,有个74号eth0@if75
再看宿主机,有个有个75号vethe12ed59@if74
也是成对出现的。我们以一张图来更加直观的说明一下。
4.使用默认的bridge模式的弊端
通过上面的实例我们看到,使用默认的bridge网络模式很容易的解决了我们网络互通的问题,看着已经很完美了,但其实不然。
容器一旦删除,网卡也就消失了,容器再次重启,ip会变化;同时,每次docker容器启动,我都要查看这个容器的ip,然后才能进行连接,这样就导致连接非常不好用,如果能够像微服务那样,能够屏蔽掉IP地址,在这里直接使用服务名连接就好了。那我们使用容器名试一下行不行。
很不幸,ping不通,那怎么解决这个问题呢?之前可以使用--link来实现,但已经作废了,现在一般是采用自定义网络来实现。这个我们后续的博客再来单独分享吧。