【原创】Ubuntu 24搭建Ollama+ DeepSeek局域网服务器

安装Ubuntu 服务器

通过ubuntu官网下载ubuntu 24服务器版本

刻录光盘(也可以使用U盘)

用光盘启动PC机器(必须是带显卡的PC机,包括集成Intel显卡的也行,纯CPU计算的服务器基本上不能使用)

最小化安装Ubuntu Server,使用自动分区

安装Ollama

可以到ollama官网查看信息
https://ollama.com

下载Linux版本
https://ollama.com/download/linux

切换到 root用户,执行如下指令

bash 复制代码
curl -fsSL https://ollama.com/install.sh | sh

如果执行失败,则多试几次即可。

执行完毕后,基本配置好了。

修改服务

bash 复制代码
vi /etc/systemd/system/ollama.service

参考《大模型部署框架 Ollama:环境变量设置与常用 CLI 命令》
https://zhuanlan.zhihu.com/p/23824503091

添加如下内容:

//允许其它计算机访问,端口8080

Environment="OLLAMA_HOST=0.0.0.0:8080"

//允许跨域访问

Environment="OLLAMA_ORIGINS=*"

//模型存放的位置

Environment="OLLAMA_MODELS=/llm_models"

//模型在内存中存放的时间

Environment="OLLAMA_KEEP_ALIVE=10"

完成后的内容如下:

bash 复制代码
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_HOST=0.0.0.0:8080"
Environment="OLLAMA_ORIGINS=*"
Environment="OLLAMA_MODELS=/llm_models"
Environment="OLLAMA_KEEP_ALIVE=10"


[Install]
WantedBy=default.target

启动服务

bash 复制代码
systemctl daemon-reload
systemctl restart ollama
systemctl enable ollama

开放服务器8080端口,用于ollama提供服务(参考上面OLLAMA_HOST参数)

下载模型

模型务必通过ollama服务器的web Api来下载

首先创建一个目录保存模型,与/etc/systemd/system/ollama.service中的配置OLLAMA_MODELS保持一致

bash 复制代码
mkdir /llm_models

将所有者设置为ollama,否则ollama账户权限写该目录

bash 复制代码
chown ollama /llm_models

查找模型
https://ollama.com/search

当前排名第一的就是deepseek,

点击deepseek-r1

默认情况下,使用7b(70亿参数)模型,在普通的P C机上可以运行,这里我选8B的

记录复制下来的内容,这个是本地命令窗口运行的指令,我们暂时不用它,这里只是获取模型名称,接下来用。

bash 复制代码
ollama run deepseek-r1:8b

进行请求,model参数重,填入上面的模型名称。

bash 复制代码
curl -X POST http://192.168.250.115:8080/api/pull -d '{"model": "deepseek-r1:8b"}'

接下来一堆输出,直到出现{"status":"success"}后,模型下载完毕。

bash 复制代码
e7e630e5df98602f1c0894ed0cacd11eeb","total":487,"completed":487}
{"status":"pulling 0cb05c6e4e02","digest":"sha256:0cb05c6e4e02614fa7f4c5d9ddcd5ae7e630e5df98602f1c0894ed0cacd11eeb","total":487,"completed":487}
{"status":"pulling 0cb05c6e4e02","digest":"sha256:0cb05c6e4e02614fa7f4c5d9ddcd5ae7e630e5df98602f1c0894ed0cacd11eeb","total":487,"completed":487}
{"status":"verifying sha256 digest"}
{"status":"writing manifest"}
{"status":"success"}

测试

下载工具 Cherry Studio
https://cherry-ai.com/

按照如下步骤配置

检查

在API密钥处,随便填点啥就行,然后点击检查

选择刚才添加的模型名称

测试成功

开始对话

观察回答

如果回复信息太慢的话,可以考虑换用参数比较小的模型。

相关推荐
qianshang2332 小时前
SQL注入学习总结
网络·数据库·渗透
what丶k3 小时前
深入解析Redis数据持久化:RBD机制原理、实操与生产最佳实践
数据库·redis·缓存
瀚高PG实验室3 小时前
通过数据库日志获取数据库中的慢SQL
数据库·sql·瀚高数据库
Hgfdsaqwr3 小时前
Python在2024年的主要趋势与发展方向
jvm·数据库·python
invicinble4 小时前
对于Mysql深入理解
数据库·mysql
阳光九叶草LXGZXJ4 小时前
达梦数据库-学习-47-DmDrs控制台命令(LSN、启停、装载)
linux·运维·数据库·sql·学习
Hgfdsaqwr4 小时前
掌握Python魔法方法(Magic Methods)
jvm·数据库·python
s1hiyu5 小时前
使用Scrapy框架构建分布式爬虫
jvm·数据库·python
2301_763472465 小时前
使用Seaborn绘制统计图形:更美更简单
jvm·数据库·python
珠海西格5 小时前
“主动预防” vs “事后补救”:分布式光伏防逆流技术的代际革命,西格电力给出标准答案
大数据·运维·服务器·分布式·云计算·能源