ollama部署deepseek实操记录

1. 安装 ollama

1.1 下载并安装

官网 https://ollama.com/

Linux安装命令 https://ollama.com/download/linux

复制代码
curl -fsSL https://ollama.com/install.sh | sh

安装成功截图

3. 开放外网访问

复制代码
1、首先停止ollama服务:systemctl stop ollama
2、修改ollama的service文件:/etc/systemd/system/ollama.service
在[Service]下边增加一行:Environment="OLLAMA_HOST=0.0.0.0:8080",端口根据实际情况修改
3、重载daemon文件 systemctl daemon-reload
4、启动ollama服务 systemctl start ollama

Ollama在windows环境中如何支持通过IP来访问接口
1、首先停止ollama服务的允许。由于windows下安装的ollama不是一个标准的windows service,所以只能直接杀掉两个ollama进程。
2、为当前windows系统添加环境变量:电脑-属性-高级系统设置-环境变量
变量:OLLAMA_HOST,值:0.0.0.0:11434
3、关掉已打开的命令行窗口,打开新命令行,用ollama serve或者ollama start来启动ollama服务,此时ollama服务在启动时将读取环境变量中的OLLAMA_HOST,支持IP端口访问

4. 修改模型存储位置

复制代码
Windows环境

环境变量-系统变量-新建

变量名:OLLAMA_MODELS

变量值:D:\Ollama

Linux环境默认存储路径为: /usr/share/ollama/.ollama/models


假如我要将下载存储路径修改为 /data/ollama

#步骤一:创建目录 sudo mkdir /data/ollama
 
#步骤二:将目标路径的所属用户和组改为root
sudo chown -R ollama:ollama /data/ollama
 
#步骤三:将其文件权限更换为777
sudo chmod -R 777 /data/ollama
 
#步骤四:打开ollama.service文件
sudo vi /etc/systemd/system/ollama.service
 
#步骤五:进行修改并添加环境(注意路径要改成自己设置的, 其它的默认, 此处仅添加了 Environment="OLLAMA_MODELS=/data/ollama"
Environment="OLLAMA_HOST=0.0.0.0:11434")
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/home/hum/.local/bin:/home/hum/anaconda3/bin:/home/hum/anaconda3/condabin:/home/hum/anaconda3/bin:/usr/local/sbin:/usr/local/bi
n:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_MODELS=/data/ollama"
Environment="OLLAMA_HOST=0.0.0.0:11434"

[Install]
WantedBy=default.target

#步骤六:

重载daemon文件 sudo systemctl daemon-reload
启动ollama服务 sudo systemctl start ollama

2. 部署deepseek模型 deepseek-r1:1.5b

复制代码
 ollama run deepseek-r1:1.5b

显得比较弱

3. 本地部署 chatbox 接入 ollama

Chatbox AI: Your AI Copilot, Best AI Client on any device, Free Download

4. 使用

5. 后台进程将其它几个版本下载下来

复制代码
cd /data/ollama

nohup ollama pull deepseek-r1:671b > d0.log 2>&1 &



nohup ollama pull deepseek-r1:14b > d14.log 2>&1 &



nohup ollama pull deepseek-r1:32b > d32.log 2>&1 &


nohup ollama pull deepseek-r1:70b > d70.log 2>&1 &
相关推荐
寒秋丶5 分钟前
Milvus:集合(Collections)操作详解(三)
数据库·人工智能·python·ai·ai编程·milvus·向量数据库
寒秋丶7 分钟前
Milvus:Schema详解(四)
数据库·人工智能·python·ai·ai编程·milvus·向量数据库
CAD老兵10 分钟前
量化技术:如何让你的 3D 模型和 AI 模型瘦身又飞快
人工智能·深度学习·机器学习
算法与编程之美11 分钟前
探索不同的优化器对分类精度的影响和卷积层的输入输出的shape的计算公式
人工智能·深度学习·机器学习·分类·数据挖掘
大千AI助手12 分钟前
微软SPARTA框架:高效稀疏注意力机制详解
人工智能·深度学习·神经网络·llm·大千ai助手·sparta·稀疏注意力机制
林九生12 分钟前
【人工智能】使用 vLLM 高效部署大语言模型:以 secGpt14b 为例
人工智能·语言模型·自然语言处理
云茧17 分钟前
机器学习中的Hello World:线性回归(一)
人工智能·机器学习·线性回归
他们叫我技术总监34 分钟前
从开发者视角深度评测:ModelEngine 与 AI 开发平台的技术博弈
java·人工智能·dubbo·智能体·modelengine
minhuan35 分钟前
构建AI智能体:八十三、当AI开始“失忆“:深入理解和预防模型衰老与数据漂移
人工智能·模型衰老·数据偏移·psi群体稳定性指标·ks统计量检验
AI浩37 分钟前
深入级联不稳定性:从 Lipschitz 连续性视角探讨图像恢复与目标检测的协同作用
人工智能·目标检测·php