ollama部署deepseek实操记录

1. 安装 ollama

1.1 下载并安装

官网 https://ollama.com/

Linux安装命令 https://ollama.com/download/linux

复制代码
curl -fsSL https://ollama.com/install.sh | sh

安装成功截图

3. 开放外网访问

复制代码
1、首先停止ollama服务:systemctl stop ollama
2、修改ollama的service文件:/etc/systemd/system/ollama.service
在[Service]下边增加一行:Environment="OLLAMA_HOST=0.0.0.0:8080",端口根据实际情况修改
3、重载daemon文件 systemctl daemon-reload
4、启动ollama服务 systemctl start ollama

Ollama在windows环境中如何支持通过IP来访问接口
1、首先停止ollama服务的允许。由于windows下安装的ollama不是一个标准的windows service,所以只能直接杀掉两个ollama进程。
2、为当前windows系统添加环境变量:电脑-属性-高级系统设置-环境变量
变量:OLLAMA_HOST,值:0.0.0.0:11434
3、关掉已打开的命令行窗口,打开新命令行,用ollama serve或者ollama start来启动ollama服务,此时ollama服务在启动时将读取环境变量中的OLLAMA_HOST,支持IP端口访问

4. 修改模型存储位置

复制代码
Windows环境

环境变量-系统变量-新建

变量名:OLLAMA_MODELS

变量值:D:\Ollama

Linux环境默认存储路径为: /usr/share/ollama/.ollama/models


假如我要将下载存储路径修改为 /data/ollama

#步骤一:创建目录 sudo mkdir /data/ollama
 
#步骤二:将目标路径的所属用户和组改为root
sudo chown -R ollama:ollama /data/ollama
 
#步骤三:将其文件权限更换为777
sudo chmod -R 777 /data/ollama
 
#步骤四:打开ollama.service文件
sudo vi /etc/systemd/system/ollama.service
 
#步骤五:进行修改并添加环境(注意路径要改成自己设置的, 其它的默认, 此处仅添加了 Environment="OLLAMA_MODELS=/data/ollama"
Environment="OLLAMA_HOST=0.0.0.0:11434")
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/home/hum/.local/bin:/home/hum/anaconda3/bin:/home/hum/anaconda3/condabin:/home/hum/anaconda3/bin:/usr/local/sbin:/usr/local/bi
n:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_MODELS=/data/ollama"
Environment="OLLAMA_HOST=0.0.0.0:11434"

[Install]
WantedBy=default.target

#步骤六:

重载daemon文件 sudo systemctl daemon-reload
启动ollama服务 sudo systemctl start ollama

2. 部署deepseek模型 deepseek-r1:1.5b

复制代码
 ollama run deepseek-r1:1.5b

显得比较弱

3. 本地部署 chatbox 接入 ollama

Chatbox AI: Your AI Copilot, Best AI Client on any device, Free Download

4. 使用

5. 后台进程将其它几个版本下载下来

复制代码
cd /data/ollama

nohup ollama pull deepseek-r1:671b > d0.log 2>&1 &



nohup ollama pull deepseek-r1:14b > d14.log 2>&1 &



nohup ollama pull deepseek-r1:32b > d32.log 2>&1 &


nohup ollama pull deepseek-r1:70b > d70.log 2>&1 &
相关推荐
夏莉莉iy3 小时前
[ICCV 2023]Scalable Diffusion Models with Transformers
人工智能·深度学习·transformer·图像·扩散模型·视觉·dit
深蓝易网3 小时前
工厂目视化实操手册,告别形式主义
运维·网络·数据库·人工智能·汽车
程序大视界3 小时前
Agent Skills:让AI助手真正“有技能“的开源标准,正在悄悄改变整个行业
人工智能·开源
老鱼说AI3 小时前
大模型面试:从字节到集群的大模型微调底层推演指南
人工智能·深度学习·神经网络·机器学习·自然语言处理
ishangy3 小时前
智慧港口周界安防模块AI视觉解决方案
人工智能·智慧港口·ai监控·ai视频监控
FONE_Platform3 小时前
FONE大健康行业全面预算解决方案:重塑全链路敏捷预算体系
大数据·人工智能·区块链·全面预算
tianyuanwo3 小时前
AI Harness Engineering 应用最佳实践:从单点故障到系统护栏
人工智能·git·harnnees
纤纡.3 小时前
基于 Qwen2.5-1.5B-Instruct 大模型实现文本分类、多轮对话与信息抽取实战
人工智能·语言模型·分类·数据挖掘
科技小花3 小时前
AI原生 vs 云原生:数据治理平台选型如何匹配你的数据中台架构?
大数据·数据库·人工智能·数据治理·数据中台