Docker 网络、资源控制

Docker 网络、资源控制

一、Docker 网络

1、Docker 网络实现原理

  • Docker使用Linux桥接 ,在宿主机虚拟一个Docker容器网桥(docker0),Docker启动一个容器时会根据Docker网桥的网段 分配给容器一个IP地址 ,称为Container-IP,同时Docker网桥是每个容器的默认网关 。因为在同一宿主机内的容器都接入同一个网桥 ,这样容器之间就能够通过容器的 Container-IP 直接通信

  • Docker网桥是宿主机虚拟出来的,并不是真实存在的网络设备,外部网络是无法寻址到的 ,这也意味着外部网络无法直接通过 Container-IP 访问到容器。如果容器希望外部访问能够访问到,可以通过映射容器端口到宿主主机(端口映射) ,即 docker run 创建容器时候通过 -p 或 -P 参数来启用端口,访问容器的时候就通过 [宿主机IP]:[容器端口]访问容器。

    docker run -d --name test1 -P nginx #随机映射端口(从32768开始)

    docker run -d --name test2 -p 43000:80 nginx #指定映射端口

    docker ps -a
    CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
    61a08c55a980 nginx:1.12 "nginx -g 'daemon of..." 6 seconds ago Up 5 seconds 0.0.0.0:9912->80/tcp, :::9912->80/tcp xc2
    62b5078266fa nginx:1.12 "nginx -g 'daemon of..." About a minute ago Up About a minute 0.0.0.0:32768->80/tcp, :::32 xc1

    浏览器访问:http://192.168.92.13:9912http://192.168.2.13:32768

    #查看容器的输出和日志信息
    docker logs 容器的ID/名称


2、Docker 的网络模式:

  • Host:容器将不会虚拟出自己的网卡,配置自己的IP等,而是使用宿主机的IP和端口。
  • Container:创建的容器不会创建自己的网卡,配置自己的IP,而是和一个指定的容器共享IP、端口范围。
  • None:该模式关闭了容器的网络功能。
  • Bridge:默认为该模式,此模式会为每一个容器分配、设置IP等,并将容器连接到一个docker0虚拟网桥,通过docker0网桥以及iptables nat 表配置与宿主机通信。

安装Docker时,它会自动创建三个网络,bridge(创建容器默认连接到此网络)、 none 、host

docker network ls	 或  docker network list			#查看docker网络列表

NETWORK ID     NAME      DRIVER    SCOPE
ff5c8f10de12   bridge    bridge    local
c348364a519d   host      host      local
3eb7a0b88d4f   none      null      local
#使用docker run创建Docker容器时,可以用 --net 或 --network 选项指定容器的网络模式
●host模式:使用 --net=host 指定。
●none模式:使用 --net=none 指定。
●container模式:使用 --net=container:NAME_or_ID 指定。
●bridge模式:使用 --net=bridge 指定,默认设置,可省略。

网络模式详解:

1.host模式

  • 相当于Vmware中的桥接模式 ,与宿主机在同一个网络中,但没有独立IP地址。
  • Docker使用了Linux的Namespaces技术来进行资源隔离,如PID Namespace隔离进程,Mount Namespace隔离文件系统,Network Namespace隔离网络等。
  • 一个Network Namespace 提供了一份独立的网络环境 ,包括网卡、路由、iptable规则等都与其他的Network Namespace隔离。 一个Docker容器一般会分配一个独立的Network Namespace。 但如果启动容器的时候使用host模式,那么这个容器将不会获得一个独立的Network Namespace, 而是和宿主机共用一个Network Namespace 。容器将不会虚拟出自己的网卡、配置自己的IP等,而是使用宿主机的IP和端口。

2.container模式

  • 在理解了host模式后,这个模式也就好理解了。这个模式指定新创建的容器和已经存在的一个容器 共享一个Network Namespace,而不是和宿主机共享。 新创建的容器不会创建自己的网卡,配置自己的IP,而是和一个指定的容器共享IP、端口范围等。同样,两个容器除了网络方面,其他的如文件系统、进程列表等还是隔离的。两个容器的进程可以通过lo网卡设备通信。

    docker run -itd --name xc3 centos:7 /bin/bash #--name 选项可以给容器创建一个自定义名称

    docker ps -a
    CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
    db47fc5d33ac centos:7 "/bin/bash" 4 minutes ago Up 4 minutes xc3

    docker inspect -f '{{.State.Pid}}' xc3 #查看容器进程号
    6758

    ls -l /proc/25495/ns #查看容器的进程、网络、文件系统等命名空间编号
    lrwxrwxrwx. 1 root root 0 7月 20 18:17 ipc -> ipc:[4026532561]
    lrwxrwxrwx. 1 root root 0 7月 20 18:17 mnt -> mnt:[4026532559]
    lrwxrwxrwx. 1 root root 0 7月 20 18:16 net -> net:[4026532565]
    lrwxrwxrwx. 1 root root 0 7月 20 18:17 pid -> pid:[4026532562]
    lrwxrwxrwx. 1 root root 0 7月 20 18:17 user -> user:[4026531837]
    lrwxrwxrwx. 1 root root 0 7月 20 18:17 uts -> uts:[4026532560]

    docker run -itd --name xc4 --net=container:db47fc5d33ac centos:7 /bin/bash
    docker ps -a
    CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
    25538fed6111 centos:7 "/bin/bash" 16 seconds ago Up 15 seconds xc4
    db47fc5d33ac centos:7 "/bin/bash" 4 minutes ago Up 4 minutes xc3

    docker inspect -f '{{.State.Pid}}' xc4
    7146

    ls -l /proc/27123/ns #查看可以发现两个容器的 net namespace 编号相同
    lrwxrwxrwx. 1 root root 0 7月 20 18:22 ipc -> ipc:[4026532661]
    lrwxrwxrwx. 1 root root 0 7月 20 18:22 mnt -> mnt:[4026532659]
    lrwxrwxrwx. 1 root root 0 7月 20 18:22 net -> net:[4026532565]
    lrwxrwxrwx. 1 root root 0 7月 20 18:22 pid -> pid:[4026532672]
    lrwxrwxrwx. 1 root root 0 7月 20 18:22 user -> user:[4026531837]
    lrwxrwxrwx. 1 root root 0 7月 20 18:22 uts -> uts:[4026532660]

3.none模式

  • 使用none模式,Docker容器拥有自己的Network Namespace,但是,并不为Docker容器进行任何网络配置。 也就是说,这个Docker容器没有网卡、IP、路由等信息。这种网络模式下容器只有lo回环网络,没有其他网卡。这种类型的网络没有办法联网,封闭的网络能很好的保证容器的安全性。

4.bridge模式

  • bridge模式是docker的默认网络模式,不用--net参数,就是bridge模式。

  • 相当于Vmware中的 nat 模式,容器使用独立network Namespace,并连接到docker0虚拟网卡。通过docker0网桥以及iptables nat表配置与宿主机通信,此模式会为每一个容器分配Network Namespace、设置IP等,并将一个主机上的 Docker 容器连接到一个虚拟网桥上。

  • (1)当Docker进程启动时,会在主机上创建一个名为docker0的虚拟网桥,此主机上启动的Docker容器会连接到这个虚拟网桥上。虚拟网桥的工作方式和物理交换机类似,这样主机上的所有容器就通过交换机连在了一个二层网络中。

  • (2)从docker0子网中分配一个IP给容器使用,并设置docker0的IP地址为容器的默认网关。在主机上创建一对虚拟网卡veth pair设备。 veth设备总是成对出现的,它们组成了一个数据的通道,数据从一个设备进入,就会从另一个设备出来。因此,veth设备常用来连接两个网络设备。

  • (3)Docker将 veth pair 设备的一端放在新创建的容器中,并命名为 eth0(容器的网卡),另一端放在主机中, 以 veth* 这样类似的名字命名, 并将这个网络设备加入到 docker0 网桥中。可以通过 brctl show 命令查看。

  • (4)使用 docker run -p 时,docker实际是在iptables做了DNAT规则,实现端口转发功能。可以使用iptables -t nat -vnL 查看。

5.自定义网络

#直接使用bridge模式,是无法支持指定IP运行docker的,例如执行以下命令就会报错
docker run -itd --name test3 --network bridge --ip 172.17.0.10 centos:7 /bin/bash

//创建自定义网络
#可以先自定义网络,再使用指定IP运行docker
docker network create --subnet=172.18.0.0/16 --opt "com.docker.network.bridge.name"="docker1"  mynetwork

#docker1 为执行 ifconfig -a 命令时,显示的网卡名,如果不使用 --opt 参数指定此名称,那你在使用 ifconfig -a 命令查看网络信息时,看到的是类似 br-110eb56a0b22 这样的名字,这显然不怎么好记。
#mynetwork 为执行 docker network list 命令时,显示的bridge网络模式名称。

docker run -itd --name zj1 --net mynetwork --ip 172.18.0.10 centos:7 /bin/bash




二、资源控制

  • Docker 通过 Cgroup 来控制容器使用的资源配额,包括== CPU、内存、磁盘三大方面==, 基本覆盖了常见的资源配额和使用量控制。
  • Cgroup 是 ControlGroups 的缩写,是 Linux 内核提供的一种可以限制、记录、隔离 进程组所使用的物理资源(如 CPU、内存、磁盘 IO 等等) 的机制,被 LXC、docker 等很多项目用于实现进程资源控制。Cgroup 本身是提供将进程进行分组化管理的功能和接口的基础结构,I/O 或内存的分配控制等具体的资源管理是通过该功能来实现的。

1.CPU 资源控制

(1)设置CPU使用率上限

  • Linux通过CFS(Completely Fair Scheduler,完全公平调度器)来调度各个进程对CPU的使用。CFS默认的调度周期是100ms。

  • 我们可以设置每个容器进程的调度周期,以及在这个周期内各个容器最多能使用多少 CPU 时间。

  • 使用 --cpu-period 即可设置调度周期,使用 --cpu-quota 即可设置在每个周期内容器能使用的CPU时间。两者可以配合使用。

  • CFS 周期 的有效范围是 1ms~1s,对应的 --cpu-period 的数值范围 是 1000~1000000。

  • 容器的 CPU 配额必须不小于 1ms,即 --cpu-quota 的值必须 >= 1000

    docker run -itd --name zj2 centos:7 /bin/bash

    docker ps -a
    CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
    c2288c10656f centos:7 "/bin/bash" 6 seconds ago Up 6 seconds zj2

    cd /sys/fs/cgroup/cpu/docker/3ed82355f81151c4568aaa6e7bc60ba6984201c119125360924bf7dfd6eaa42b/
    cat cpu.cfs_quota_us
    -1

    cat cpu.cfs_period_us
    100000

#cpu.cfs_period_us:cpu分配的周期(微秒,所以文件名中用 us 表示),默认为100000。
#cpu.cfs_quota_us:表示该cgroups限制占用的时间(微秒),默认为-1,表示不限制。 如果设为50000,表示占用50000/100000=50%的CPU。

#进行CPU压力测试
docker exec -it 3ed82355f811 /bin/bash

yum install -y epel-release

yum install -y stress


top					#可以看到这个脚本占了很多的cpu资源




#设置50%的比例分配CPU使用时间上限
docker run -itd --name test6 --cpu-quota 50000 centos:7 /bin/bash	#可以重新创建一个容器并设置限额
或者
cd /sys/fs/cgroup/cpu/docker/3ed82355f81151c4568aaa6e7bc60ba6984201c119125360924bf7dfd6eaa42b/
echo 50000 > cpu.cfs_quota_us
docker exec -it 3ed82355f811 /bin/bash
./cpu.sh

top					#可以看到cpu占用率接近50%,cgroups对cpu的控制起了效果

#在多核情况下,如果允许容器进程完全占用两个 CPU, 则可以将 cpu-period 设置为 100000( 即 0.1 秒), cpu-quota设置为 200000(0.2 秒)。

(2)设置CPU资源占用比(设置多个容器时才有效)

  • Docker 通过 --cpu-shares 指定 CPU 份额,默认值为1024,值为1024的倍数。

    #创建两个容器为 c1 和 c2,若只有这两个容器,设置容器的权重,使得c1和c2的CPU资源占比为1/3和2/3。
    docker run -itd --name c1 --cpu-shares 512 centos:7 bash
    docker run -itd --name c2 --cpu-shares 1024 centos:7 bash

    #分别进入容器,进行压力测试
    yum install -y epel-release
    yum install -y stress
    stress -c 4 #产生四个进程,每个进程都反复不停的计算随机数的平方根

    #查看容器运行状态(动态更新)
    docker stats
    CONTAINER ID NAME CPU % MEM USAGE / LIMIT MEM % NET I/O BLOCK I/O PIDS
    552ffcd46ff2 c2 268.01% 228.5MiB / 3.843GiB 5.81% 38.8MB / 500kB 283kB / 24.9MB 2
    2268181ce6ad c1 132.62% 243.8MiB / 3.843GiB 6.20% 38.8MB / 513kB 58.1MB / 25.3MB 2




  • 可以看到在 CPU 进行时间片分配的时候,容器 c2 比容器 c1 多一倍的机会获得 CPU 的时间片。

  • 分配的结果 取决于当时主机和其他容器的运行状态,实际上也无法保证容器 c1 一定能获得 CPU 时间片。比如容器 c1 的进程一直是空闲的,那么容器 c2 是可以获取比容器 c1 更多的 CPU 时间片的。极端情况下,例如主机上只运行了一个容器,即使它的 CPU 份额只有50,它也可以独占整个主机的 CPU 资源。

  • Cgroups 只在容器分配的资源紧缺时,即在需要对容器使用的资源进行限制时,才会生效。因此,无法单纯根据某个容器的 CPU 份额来确定有多少 CPU 资源分配给它,资源分配结果取决于同时运行的其他容器的 CPU 分配和容器中进程运行情况。

(3)设置容器绑定指定的CPU

#先分配虚拟机4个CPU核数
docker run -itd --name xc1 --cpuset-cpus 1,3 centos:7 /bin/bash

#进入容器,进行压力测试
yum install -y epel-release
yum install stress -y
stress -c 4

#退出容器,执行 top 命令再按 1 查看CPU使用情况。





2.对内存使用的限制

//-m(--memory=) 选项用于限制容器可以使用的最大内存
docker run -itd --name xc2 -m 512m centos:7 /bin/bash

docker stats

//限制可用的 swap 大小, --memory-swap 强调一下,--memory-swap 是必须要与 --memory

一起使用的。

正常情况下,--memory-swap 的值包含容器可用内存和可用 swap。 所以 -m 300m --memory-swap=1g

的含义为:容器可以使用 300M 的物理内存,并且可以使用 700M(1G - 300)的 swap。

如果 --memory-swap 设置为 0 或者 不设置,则容器可以使用的 swap 大小为 -m 值的两倍。 如果

--memory-swap 的值和 -m 值相同,则容器不能使用 swap。 如果 --memory-swap 值为 -1,它表示容器程序使用的内存受限,而可以使用的 swap 空间使用不受限制(宿主机有多少 swap 容器就可以使用多少)。

3.对磁盘IO配额控制(blkio)的限制

--device-read-bps:限制某个设备上的读速度bps(数据量),单位可以是kb、mb(M)或者gb。
例:docker run -itd --name test9 --device-read-bps /dev/sda:1M  centos:7 /bin/bash

--device-write-bps : 限制某个设备上的写速度bps(数据量),单位可以是kb、mb(M)或者gb。
例:docker run -itd --name test10 --device-write-bps /dev/sda:1mb centos:7 /bin/bash

--device-read-iops :限制读某个设备的iops(次数)
 
--device-write-iops :限制写入某个设备的iops(次数)

#创建容器,并限制写速度
docker run -it --name test10 --device-write-bps /dev/sda:1mb centos:7 /bin/bash

#通过dd来验证写速度
dd if=/dev/zero of=test.out bs=1M count=10 oflag=direct				#添加oflag参数以规避掉文件系统cache
10+0 records in
10+0 records out
10485760 bytes (10 MB) copied, 10.0025 s, 1.0 MB/s


#清理docker占用的磁盘空间
docker system prune -a			#可以用于清理磁盘,删除关闭的容器、无用的数据卷和网络
相关推荐
Hacker_xingchen1 分钟前
网络安全之内网安全
网络·安全·web安全
it噩梦20 分钟前
使用EFK收集k8s日志
容器·kubernetes
Ray550541 分钟前
bridge-multicast-igmpsnooping
linux·服务器·网络
中国云报43 分钟前
金融数据中心容灾“大咖说” | Commvault的“网络弹性”之道
网络·金融
库库的里昂1 小时前
Linux系统Docker部署开源在线协作笔记Trilium Notes与远程访问详细教程
linux·运维·docker·开源
winfredzhang1 小时前
解决 Docker Desktop 启动报错:Docker Desktop is unable to detect a Hypervisor
docker·desktop·报错解决
hgdlip2 小时前
使用代理ip和本地网络的区别是什么
网络·网络协议·tcp/ip
^Lim2 小时前
esp32 JTAG 串口 bootload升级
java·linux·网络
Linux运维老纪3 小时前
交换机配置从IP(Switch Configuration from IP)
linux·服务器·网络·安全·运维开发·ip
加载中loading...3 小时前
C/C++实现tcp客户端和服务端的实现(从零开始写自己的高性能服务器)
linux·运维·服务器·c语言·网络