【Docker使用】从拉取到运行

最近我在尝试使用Docker运行LocalAI大模型服务,在这个过程中遇到了不少疑问。通过实践和查阅资料,我总结了一些经验,希望能够帮助大家更好地理解Docker的工作机制。

1. Docker镜像查找流程

当我们执行docker run命令时,Docker会按照以下步骤查找镜像:

  1. 本地查找:首先在本地镜像仓库中查找是否存在指定名称和标签的镜像。
  2. 远程拉取:如果本地没有,Docker会默认从Docker Hub(或配置的其他镜像仓库)拉取镜像。

在本文的例子中,我使用了localai/localai:master-aio-gpu-nvidia-cuda-12这个镜像。由于本地没有,所以Docker开始从远程仓库拉取。

2. 镜像参数配置详解

在运行Docker容器时,我们可以通过参数配置容器的各种行为。下面是我使用的命令及其参数说明:

bash 复制代码
docker run -d \
  --name localai \          # 为容器指定一个名称
  --gpus all \              # 允许容器使用所有GPU资源
  -p 8080:8080 \            # 端口映射,将宿主机的8080端口映射到容器的8080端口
  -v D:/local-ai/models:/models \  # 卷挂载,将宿主机的D:/local-ai/models目录挂载到容器的/models目录
  -e THREADS=6 \            # 设置环境变量THREADS,控制线程数
  -e CONTEXT_SIZE=4096 \    # 设置上下文大小
  -e GPU_LAYERS=35 \        # 设置使用GPU的层数
  -e BATCH_SIZE=512 \       # 设置批处理大小
  -e MODEL_FILE=llama-2-7b-chat.Q4_K_M.gguf \  # 设置模型文件
  localai/localai:master-aio-gpu-nvidia-cuda-12  # 使用的镜像名

3. 镜像下载过程解析

当我们看到Docker开始下载镜像时,会显示多个层的下载进度。每个层都是镜像的一部分,采用分层存储的方式。

为什么有些层已经存在?

在下载过程中,你可能会注意到有些层显示"Already exists",这通常是因为:

  1. 本地已有相同层:如果你之前拉取过其他镜像,而这些镜像与当前镜像共享某些相同的层,那么这些层就已经存在于本地,无需重新下载。
  2. Docker的层复用机制:Docker镜像由多个只读层组成,不同的镜像可以共享相同的层。例如,很多基于Ubuntu的镜像都会共享相同的Ubuntu基础层。

下载的镜像存储在哪里?

Docker镜像默认存储在宿主机的特定目录中:

  • Linux系统/var/lib/docker
  • Windows系统(WSL2) :通常位于WSL2子系统的/var/lib/docker目录中
  • macOS :同样位于Docker虚拟机的/var/lib/docker目录

可以通过以下命令查看Docker的存储位置:

bash 复制代码
docker info | grep "Docker Root Dir"

4. 删除镜像和容器的影响

删除容器

当删除容器时,只会删除容器层(即可写层),而不会删除镜像层。这意味着:

  • 容器内的数据更改(如果不使用卷挂载)会丢失
  • 镜像本身保持不变

删除镜像

删除镜像会删除该镜像的所有层,但前提是这些层没有被其他镜像共享。如果某个层被多个镜像共享,那么删除其中一个镜像不会删除共享层。

5. 常见问题解答

Q1:为什么Docker镜像要分层存储?

A:分层存储有多个优势:

  • 节省存储空间:多个镜像可以共享相同的层
  • 加快下载速度:如果本地已有某些层,则无需重复下载
  • 提高构建效率:构建镜像时,只需要重新构建发生变化的层

Q2:如何清理不再使用的Docker资源?

A:可以使用以下命令:

bash 复制代码
# 删除所有停止的容器
docker container prune

# 删除所有未被使用的镜像
docker image prune -a

# 删除所有未被使用的卷
docker volume prune

# 删除所有未被使用的网络
docker network prune

# 一键清理所有未被使用的资源
docker system prune -a

Q3:如何查看镜像的层结构?

A:使用docker history命令可以查看镜像的层结构:

bash 复制代码
docker history localai/localai:master-aio-gpu-nvidia-cuda-12

Q4:如何备份和迁移Docker镜像?

A:可以使用docker savedocker load命令:

bash 复制代码
# 将镜像保存为tar文件
docker save -o localai.tar localai/localai:master-aio-gpu-nvidia-cuda-12

# 从tar文件加载镜像
docker load -i localai.tar

6. 总结

通过这次LocalAI的部署实践,我深刻理解了Docker的工作原理。分层存储机制让Docker在镜像管理上变得高效,但也带来了一些复杂性。掌握这些基本概念后,我们就能更好地使用Docker来部署和管理应用。

相关推荐
梦想的旅途215 小时前
从句柄操作到内存指令:企微外部群自动化推送的底层演进
运维·自动化·企业微信
运维有小邓@15 小时前
如何分析 Linux 系统登录失败事件
linux·运维·服务器
物联网软硬件开发-轨物科技15 小时前
技术白皮书:AI驱动下的光伏电站智能化运维新范式
运维·人工智能·物联网
江湖有缘15 小时前
PicoShare + Docker 实战:打造极简自托管文件分享系统
运维·docker·容器
负二代0.015 小时前
系统引导过程及修复
linux·运维·服务器
kft131415 小时前
SkyWalking10.3.0-性能监控管理工具部署教程-Docker模式(二)-保姆级教程
运维·docker·容器
2501_9419820515 小时前
企微死锁破解:自动化推送自动恢复技术
运维·自动化·企业微信
宇钶宇夕15 小时前
CoDeSys入门实战一起学习(十三):函数(FUN)深度解析:自定义、属性与实操案例
运维·算法·自动化·软件工程
bukeyiwanshui15 小时前
Nginx 服务器
运维·服务器·nginx
楼田莉子15 小时前
Linux学习之库的原理与制作
linux·运维·服务器·c++·学习