docker网络模式
网络配置向导:Networking | Docker Docs
命令参考:docker network | Docker Docs
删除所有容器
docker rm -f $(docker ps -aq)
docker ps -aq 查询所有容器的id
-a 全部
-q 只显示容器id
查看网络信息
- 在没有安装docker之前的网络信息
[root@localhost ~]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
link/ether 00:0c:29:4d:7c:d8 brd ff:ff:ff:ff:ff:ff
inet 192.168.19.18/24 brd 192.168.19.255 scope global noprefixroute dynamic ens33
valid_lft 1762sec preferred_lft 1762sec
inet6 fe80::98e4:fa98:651c:a99d/64 scope link noprefixroute
valid_lft forever preferred_lft forever
1: lo: local的简写,一般指本地环回接口。
2: ens33: 网卡
网络启动过程
Docker 服务启动时会首先在主机上自动创建一个docker0虚拟网桥 , 实际上是一个Linux 网桥。网桥可以理解为一个软件交换机, 负责挂载其上的接口之间进行包转发。同时, Docker 随机分配一个本地未占用的私有网段(在RFC1918 中定义)中的一个地址给docker0接口。比如典型的172.17.0.0/16 网段, 掩码为255.255.0.0。此后启动的容器内的网口也会自动分配一个该网段的地址。当创建一个Docker 容器的时候, 同时会创建了一对veth pair互联接口。当向任一个接口发送包时, 另外一个接口自动收到相同的包。互联接口的一端位于容器内, 即eth0; 另一端在本地并被挂载到docke0网桥, 名称以veth 开头(例如vethAQI2QT)。通过这种方式,主机可以与容器通信, 容器之间也可以相互通信。如此一来,Docker 就创建了在主机和所有容器之间一个虚拟共享网络

docker安装成功后,会自动创建三个网络,可以通过如下的方式查看:
[root@localhost ~]# docker network ls
NETWORK ID NAME DRIVER SCOPE
e23d9048234e bridge bridge local
ed753a7e774d host host local
52634ec7e48f none null local
在运行容器时可以通过--net参数指定网络模式,例如:
-
host模式: --net=host 容器不会虚拟自己的网卡,使用宿主机的ip和端口
-
none模式: --net=none 该模式等同于关闭容器的网络功能,一般在不需要网络的批处理任务中才使用
-
bridge模式: --net=bridge 默认值,如果指定--net参数,则docker就会采用这种模式,这种模式也是最强大灵活,使用的最广的网络模式。
模式 | 是否支持多主机 | 南北通信机制 | 东西通信机制 |
---|---|---|---|
bridge | 否 | 宿主机端口绑定 | 通过linux bridge |
host | 是 | 按宿主机网络通信 | 按宿主机网络通信 |
none | 否 | 无法通信 | 只能用link通信 |
自定义网络 |
bridge模式
Docker每次创建容器都会同时创建一组互联的网络接口,你可以理解为一根管道的两端, 这组接口一端作为容器的eth0接口,另一端命名类似于veth966865c@if100这样的名字,作为宿主机的一个端口。可以将veth接口的理解为虚拟网线的一端,这个虚拟网线一端插在名为docker0的网桥上,另一端插到容器中。通过这种方式Docker创建了一个虚拟子网,这个虚拟子网被宿主机和所有的Docker容器共享。
注: 可以安装bridge-utils工具查看网桥信息 如: yum install -y bridge-utils 查看网桥信息: brctl show
内置bridge模式
查看宿主机ip信息
- 安装docker之后的ip信息
[root@localhost ~]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
link/ether 00:0c:29:4d:7c:d8 brd ff:ff:ff:ff:ff:ff
inet 192.168.19.18/24 brd 192.168.19.255 scope global noprefixroute dynamic ens33
valid_lft 1532sec preferred_lft 1532sec
inet6 fe80::98e4:fa98:651c:a99d/64 scope link noprefixroute
valid_lft forever preferred_lft forever
3: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default
link/ether 02:42:c4:21:e3:40 brd ff:ff:ff:ff:ff:ff
inet 172.17.0.13/16 brd 172.17.255.255 scope global docker0
valid_lft forever preferred_lft forever
inet6 fe80::42:c4ff:fe21:e340/64 scope link
valid_lft forever preferred_lft forever
1: lo: local的简写,一般指本地环回接口。
2: ens33: 网卡
3: docker0: 当Docker进程启动时,会在主机上创建一个名为docker0的虚拟网桥 ,此主机上启动的Docker容器都会连接到这个虚拟网桥上。虚拟网桥的工作方式和物理交换机类似,这样主机上的所有容器就通过交换机连在了一个二层网络中。
从docker0子网中分配一个IP给容器使用,并设置docker0的IP地址为容器的默认网关。在主机上创建一对虚拟网卡veth pair设备,Docker将veth pair设备的一端放在新创建的容器中,并命名为eth0(容器的网卡),另一端放在主机中,以vethxxx这样类似的名字命名,并将这个网络设备加入到docker0网桥中。可以通过brctl show命令查看。
启动多个centos
docker run -itd --name c1 centos
docker run -itd --name c2 centos
- 容器默认使用bridge网络模式
查看宿主机ip
- ip addr
[root@localhost ~]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
link/ether 00:0c:29:4d:7c:d8 brd ff:ff:ff:ff:ff:ff
inet 192.168.19.18/24 brd 192.168.19.255 scope global noprefixroute dynamic ens33
valid_lft 1335sec preferred_lft 1335sec
inet6 fe80::98e4:fa98:651c:a99d/64 scope link noprefixroute
valid_lft forever preferred_lft forever
3: docker0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default
link/ether 02:42:c4:21:e3:40 brd ff:ff:ff:ff:ff:ff
inet 172.17.0.1/16 brd 172.17.255.255 scope global docker0
valid_lft forever preferred_lft forever
inet6 fe80::42:c4ff:fe21:e340/64 scope link
valid_lft forever preferred_lft forever
27: 3hbbc9cae@if26: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master docker0 state UP group default
link/ether 22:a3:38:0a:65:8c brd ff:ff:ff:ff:ff:ff link-netnsid 0
inet6 fe80::20a3:38ff:fe0a:658c/64 scope link
valid_lft forever preferred_lft forever
29: veth9dfb1c8@if28: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master docker0 state UP group default
link/ether ba:dc:83:27:e8:1a brd ff:ff:ff:ff:ff:ff link-netnsid 1
inet6 fe80::b8dc:83ff:fe27:e81a/64 scope link
valid_lft forever preferred_lft forever
27: vethbbc9cae@if26:
29: veth9dfb1c8@if28:
查看容器ip
[root@localhost ~]# docker exec -it c1 ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
26: eth0@if27: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default
link/ether 02:42:ac:11:00:02 brd ff:ff:ff:ff:ff:ff link-netnsid 0
inet 172.17.0.2/16 brd 172.17.255.255 scope global eth0
valid_lft forever preferred_lft forever
26: eth0@if27:
查看容器连网方式
-
查看网关信息
- 需要先安装yum install -y bridge-utils
[root@localhost ~]# brctl show
bridge name bridge id STP enabled interfaces
docker0 8000.0242c421e340 no veth9dfb1c8
vethbbc9cae
- 查看bridge网络模式详细
[root@localhost ~]# docker network inspect bridge
[
{
"Name": "bridge",
"Id": "a217fc10fba8f50de80148a09ad7c7d162174317d2ee8e553a23fef881ac7998",
"Created": "2022-08-18T15:15:52.632030767+08:00",
"Scope": "local",
"Driver": "bridge",
"EnableIPv6": false,
"IPAM": {
"Driver": "default",
"Options": null,
"Config": [
{
"Subnet": "172.17.0.0/16",
"Gateway": "172.17.0.1"
}
]
},
"Internal": false,
"Attachable": false,
"Ingress": false,
"ConfigFrom": {
"Network": ""
},
"ConfigOnly": false,
"Containers": {
"8eb7c3286fc84a5671529d1091e1028f307a37a7198358b1f1d786f64ef01b9e": {
"Name": "c1",
"EndpointID": "32fe7560b0c2014ee4cfa7180b17acab98c00ec1efb24bb363add3f1faaa1d37",
"MacAddress": "02:42:ac:11:00:02",
"IPv4Address": "172.17.0.2/16",
"IPv6Address": ""
},
"ec82fcceb0429e4e8e004ffe4b401328c132384fe5093a1c572fe2b7b2fe7e6c": {
"Name": "c2",
"EndpointID": "88aa3e718f51decece193c057f6bca11f37bde2983e1b2648841effd1c0e4ee2",
"MacAddress": "02:42:ac:11:00:03",
"IPv4Address": "172.17.0.3/16",
"IPv6Address": ""
}
},
"Options": {
"com.docker.network.bridge.default_bridge": "true",
"com.docker.network.bridge.enable_icc": "true",
"com.docker.network.bridge.enable_ip_masquerade": "true",
"com.docker.network.bridge.host_binding_ipv4": "0.0.0.0",
"com.docker.network.bridge.name": "docker0",
"com.docker.network.driver.mtu": "1500"
},
"Labels": {}
}
]
-
查看容器的详细
- docker inspect c1
测试
- 在c1容器中测试连接c2容器
[root@localhost ~]# docker exec c1 ping 172.17.0.3
PING 172.17.0.3 (172.17.0.3) 56(84) bytes of data.
64 bytes from 172.17.0.3: icmp_seq=1 ttl=64 time=0.095 ms
64 bytes from 172.17.0.3: icmp_seq=2 ttl=64 time=0.076 ms
64 bytes from 172.17.0.3: icmp_seq=3 ttl=64 time=0.077 ms
- 在c1容器中测试连接外网
[root@localhost ~]# docker exec c1 ping www.baidu.com
PING www.a.shifen.com (14.215.177.39) 56(84) bytes of data.
64 bytes from 14.215.177.39 (14.215.177.39): icmp_seq=1 ttl=127 time=30.3 ms
64 bytes from 14.215.177.39 (14.215.177.39): icmp_seq=2 ttl=127 time=28.8 ms
64 bytes from 14.215.177.39 (14.215.177.39): icmp_seq=3 ttl=127 time=27.7 ms
- 在宿主机中连接容器
[root@localhost ~]# ping 172.17.0.2
PING 172.17.0.2 (172.17.0.2) 56(84) bytes of data.
64 bytes from 172.17.0.2: icmp_seq=1 ttl=64 time=0.076 ms
64 bytes from 172.17.0.2: icmp_seq=2 ttl=64 time=0.062 ms
64 bytes from 172.17.0.2: icmp_seq=3 ttl=64 time=0.069 ms
- 外网不能访问容器
注意
-
ip地址不固定,且不能指定
-
地址不能用服务名(容器名)
自定义bridge模式
创建
创建一个新的网络可以使用如下的命令:
##示例1
docker network create mynet1
##示例2
docker network create --subnet=172.18.0.0/16 mynet2
##示例3
docker network create --subnet 172.22.16.0/24 --gateway 172.22.16.1 mynet3
172.22.16.0/24其实这种形式就是用CIDR(无类别域间路由选择,Classless and Subnet Address Extensions and Supernetting))的形式表示的一个网段,或者说子网。我们知道确定一个子网需要知道主机地址和子网掩码,但用CIDR的形式,可以简单得到两个数值。举例说吧,192.168.0.0/24"就表示,这个网段的IP地址从192.168.0.1开始,到192.168.0.254结束(192.168.0.0和192.168.0.255有特殊含义,不能用作IP地址);子网掩码是255.255.255.0。
192.168.0.0/16: 前16位为网络号,后16位为主机号
172.22.16.0/24:前24位为网络号,后8位为主机号
查看
可以使用如下的方式来查看网络的详细信息
docker network ls
docker network inspect appnet

删除
docker network rm appnet
使用
1)启动镜像时指定--net参数
docker run -it --name test --net=appnet imagename
2)也可以将运行中的容器加入/断开网络
#加入
docker network connect appnet test
docker network disconnect appnet test
-
appnet 需要加入的网络名
-
test 需要加入到网络的容器名
小结
Docker网络bridge桥接模式,是创建和运行容器时默认模式。这种模式会为每个容器分配一个独立的网卡,桥接到默认或指定的bridge上,同一个Bridge下的容器下可以互相通信的。我们也可以创建自定义bridge以满足个性化的网络需求。
bridge模式 | 自定义 bridge模式 | |
---|---|---|
是否可删除 | 不可删除 | 可删除 |
是否可以通过容器名通信 | 不可以 | 可以 |
指定容器ip | 不可以 | 可以 |
host模式
Docker使用了Linux的Namespaces技术来进行资源隔离,如PID Namespace隔离进程,Mount Namespace隔离文件系统,Network Namespace隔离网络等。一个Network Namespace提供了一份独立的网络环境,包括网卡、路由、Iptable规则等都与其他的Network Namespace隔离。
host模式类似于Vmware的桥接模式,与宿主机在同一个网络中,但没有独立IP地址。一个Docker容器一般会分配一个独立的Network Namespace。但如果启动容器的时候使用host模式,那么这个容器将不会获得一个独立的Network Namespace,而是和宿主机共用一个Network Namespace。容器将不会虚拟出自己的网卡,配置自己的IP等,而是使用宿主机的IP和端口。
如下图所示:容器与主机在相同的网络命名空间下面,使用相同的网络协议栈,容器可以直接使用主机的所有网络接口

使用
使用--net host
参数来指定网络模型使用host模式
docker run --name=nginx01 --net=host -p 80:80 -d nginx
注意:宿主机端口需要和容器端口一样
查看容器链路接口,与主机一致
docker exec -it nginx01 cat /etc/hosts
这时外界要访问容器中的应用,则直接使用{host0.ip}:80
即可,不用任何NAT转换,就像直接跑在宿主机中一样。但是,容器的其他方面,如文件系统、进程列表等还是和宿主机隔离的。
curl {host0.ip}
小结
host 模式简单并且性能高,host 模式下面的网络模型是最简单和最低延迟的模式,容器进程直接与主机网络接口通信,与物理机性能一致,host 不利于网络自定配置和管理,并且所有主机的容器使用相同的IP。也不利于主机资源的利用。对网络性能要求比较高,可以使用该模式。否则应该使用其他模式
外部访问docker容器
bridge模式
docker run -itd -p 7001:7001 镜像ID
-p参数可以出现多次,绑定多个端口号
docker run -itd -p 8080:8080 -p 8088:8088 镜像ID
当使用 -P 标记时,Docker 会随机映射一个 49000~49900 的端口到内部容器开放的网络端口
host模式
docker run -itd --net=host 镜像ID
注1:不需要添加-p参数,因为它使用的就是主机的IP和端口,添加-p参数后,反而会出现以下警告: WARNING: Published ports are discarded when using host network mode 注2:宿主机的ip路由转发功能一定要打开,否则所创建的容器无法联网! echo 1 > /proc/sys/net/ipv4/ip_forward
附录
lo:
lo: local的简写,一般指本地环回接口。
lo接口的作用
本地一个进程发起连接,到一个本地的daemon监听的内网IP地址(eth1: 10.1.1.1)的端口(8085),此时在eth1上是抓不到包的,在 lo 上抓到,说明使用的是本地回环接口lo,而网络层的IP地址则是内网IP地址.
lo其实是一个系统虚拟的环回接口,它的IP地址是127.0.0.1,利用这个接口可以实现系统内部发送和接收数据,所以一般情况下我们使用:ping 127.0.0.1 是可以ping通的,因为这其实就是系统内部建立连接。
127.0.0.1,通常被称为本地回环地址(Loop back address),不属于任何一个有类别地址类。它代表设备的本地虚拟接口,所以默认被看作是永远不会宕掉的接口。通常在不安装网卡前就可以ping通这个本地回环地址。一般都会用来检查本地网络协议、基本数据接口等是否正常的。
其主要作用有两个:
一是测试本机的网络配置,能PING通127.0.0.1说明本机的网卡和IP协议安装都没有问题;
另一个作用是某些SERVER/CLIENT的应用程序在运行时需调用服务器上的资源
ens33
ens33为自动备援模式,名称定为ens33。 网卡的编号存在一定的规则,网卡的代号与网卡的来源有关。Linux继承了Unix以网络为核心的设计思想,为一个性能稳定的多用户网络操作系统。
eno1:代表由主板bios内置的网卡。 ens1:代表有主板bios内置的PCI-E网卡。 enp2s0: PCI-E独立网卡。 eth0:如果以上都不使用,则回到默认的网卡名。