解锁DeepSeek潜能:Docker+Ollama打造本地大模型部署新范式

🐇明明跟你说过:个人主页

🏅个人专栏:《深度探秘:AI界的007》 🏅

🔖行路有良友,便是天堂🔖

目录

一、引言

1、什么是Docker

2、什么是Ollama

二、准备工作

1、操作系统

2、镜像准备

三、安装

1、安装Docker

2、启动Ollama

3、拉取Deepseek大模型

4、启动Deepseek


一、引言

1、什么是Docker

Docker:就像一个"打包好的App"

想象一下,你写了一个很棒的程序,在自己的电脑上运行得很好。但当你把它发给别人,可能会遇到各种问题:

  • "这个软件需要 Python 3.8,但我只有 Python 3.6!"

  • "我没有你用的那个库,安装失败了!"

  • "你的程序要跑在 Linux,我的电脑是 Windows!"

💡 Docker 的作用 :它就像一个"打包好的 App",把你的软件、依赖、环境、系统配置等 全部封装到一个"容器" 里,别人拿到这个容器,就能直接运行,而不用关心它内部的细节。


🚀 把 Docker 想象成"集装箱"

传统运输 vs. 集装箱运输

以前(传统部署)

  • 货物(程序)需要不同的包装方式(运行环境)

  • 货物可能损坏(环境不兼容)

  • 装卸麻烦(程序迁移难)

有了 Docker(容器部署)

  • 货物装进标准化集装箱(Docker 容器)

  • 不管运到哪里,集装箱里东西不变(程序环境一致)

  • 码头和船只可以直接装卸(轻松部署到不同系统)

Docker 让软件像"集装箱"一样标准化、可移植、易部署! 🚢

2、什么是Ollama

Ollama 是一个本地运行大语言模型(LLM)的工具,它可以让你 在自己的电脑上直接运行 AI 模型,而不需要连接云端服务器。

💡 简单来说:Ollama 让你像运行普通软件一样,轻松在本地使用 ChatGPT、Llama、Mistral、Gemma 等大语言模型。

🚀 Ollama 的核心特点

  1. 本地运行 🏠

    • 你不需要联网,也不用担心隐私问题,所有计算都在你的电脑上完成。
  2. 支持多种开源模型 📚

    • 可以运行 Llama 3、Mistral、Gemma、Code Llama 等不同的大模型。
  3. 易于安装和使用 🔧

    • 只需要几条命令,就能下载并运行 AI 模型。
  4. 轻量化优化

    • 适配 Mac(Apple Silicon)、Linux 和 Windows,支持 GPU 加速,让模型运行更快。
  5. 离线推理 🔒

    • 适合不想依赖 OpenAI API 或其他云端 AI 服务的用户。

二、准备工作

1、操作系统

这里我们使用的操作系统为Centos 7.9,配置为4核8G,大家也可以使用其他的Linux发行版本,或者使用Windows。

2、镜像准备

如果已经安装了Docker,可以提前准备好镜像,ollama/ollama,镜像比较大,拉取会耗一些时间

三、安装

1、安装Docker

1.关闭防火墙

复制代码
systemctl stop firewalld && systemctl disabled firewalld

2.关闭SELinux

复制代码
setenforce 0

3.更换yum源

复制代码
rm -f /etc/yum.repos.d/*
curl -o /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
yum clean all && yum makecache

4.安装依赖项

复制代码
yum install -y yum-utils device-mapper-persistent-data lvm2
  1. 添加Docker源

    yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

6.安装Docker

复制代码
yum install docker-ce -y

7.添加Docker镜像加速器

复制代码
vim /etc/docker/daemon.json
# 添加如下内容
{
 
"registry-mirrors": [
 
"https://docker.m.daocloud.io",
 
"https://noohub.ru",
 
"https://huecker.io",
 
"https://dockerhub.timeweb.cloud",
 
"https://0c105db5188026850f80c001def654a0.mirror.swr.myhuaweicloud.com",
 
"https://5tqw56kt.mirror.aliyuncs.com",
 
"https://docker.1panel.live",
 
"http://mirrors.ustc.edu.cn/",
 
"http://mirror.azure.cn/",
 
"https://hub.rat.dev/",
 
"https://docker.ckyl.me/",
 
"https://docker.chenby.cn",
 
"https://docker.hpcloud.cloud",
 
"https://docker.m.daocloud.io"
 
]
 
}

8.启动Docker

复制代码
systemctl start docker

2、启动Ollama

1.启动Ollama容器

复制代码
docker run -itd -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
  • docker run运行一个新的 Docker 容器
  • -itd 组合多个选项:
    • -i(保持标准输入)
    • -t(分配终端)
    • -d(后台运行容器)
  • -v ollama:/root/.ollama 挂载数据卷,把 ollama 这个 Docker 数据卷 绑定到容器的 /root/.ollama 目录,确保数据持久化(如下载的模型不会丢失)。
  • -p 11434:11434 端口映射,把 宿主机(本机)的 11434 端口 映射到 容器 内部的 11434 端口,这样宿主机可以通过 http://localhost:11434 访问 Ollama 服务。
  • --name ollama 指定 容器名称 为 ollama,方便管理和启动。
  • ollama/ollama 使用的 Docker 镜像,这里是 官方的 Ollama 镜像。

如果是使用GPU运行,则用下面的命令启动

复制代码
docker run -itd --name ollama  --gpus=all -v ollama:/root/.ollama -p 11434:11434  ollama/ollama

2.查看Ollama容器

复制代码
docker ps

3、拉取Deepseek大模型

1.进入到容器中

复制代码
docker exec -it ollama /bin/bash

2.拉取模型

复制代码
ollama pull  deepseek-r1:7b

在官网中,有许多Deepseek的模型,这里主要是演示,所以拉取了一个较小的模型

官网地址:deepseek-r1

3.查看模型

复制代码
ollama list

4、启动Deepseek

复制代码
ollama run deepseek-r1:7b

💕💕💕每一次的分享都是一次成长的旅程,感谢您的陪伴和关注。希望这些文章能陪伴您走过技术的一段旅程,共同见证成长和进步!😺😺😺

🧨🧨🧨让我们一起在技术的海洋中探索前行,共同书写美好的未来!!!

相关推荐
会飞的小蛮猪13 分钟前
Ubuntu24.04基于Docker部署K8s(使用私服部署)
经验分享·docker·云原生·容器·kubernetes
JuiceFS18 分钟前
JuiceFS sync 原理解析与性能优化,企业级数据同步利器
运维·后端
人机与认知实验室1 小时前
国内主流大语言模型之比较
人工智能·语言模型·自然语言处理
Logan Lie1 小时前
Web服务监听地址的取舍:0.0.0.0 vs 127.0.0.1
运维·后端
Y淑滢潇潇2 小时前
RHCE 防火墙实验
linux·运维·rhce
稻谷君W2 小时前
Ubuntu 远程访问 Win11 WSL2 并固定访问教程
linux·运维·ubuntu
泡沫·2 小时前
4.iSCSI 服务器
运维·服务器·数据库
weixin_436525073 小时前
使用 idea 命令行构建 Docker 镜像并部署到云服务器
linux·docker·github
悠悠121383 小时前
告别Zabbix?我用Netdata只花10分钟就搞定了50台服务器的秒级监控(保姆级实战)
运维·服务器·zabbix
天庭鸡腿哥4 小时前
大小只有4K的软件,可让系统瞬间丝滑!
运维·服务器·windows·microsoft·everything