DeepSeek linux服务器(CentOS)部署命令笔记

Linux(CentOS)+FinalShell+Ollama+远程访问,本地部署deepseek

自备CentOS服务器,并且已经使用FinalShell连接到服务器

一、准备工作

1.更新服务器

复制代码
apt-get update-y

2.下载Ollama

复制代码
curl -fsSL https://ollama.com/install.sh  | sh

3.测试ollama是否安装完成

复制代码
ollama

4.按照正常的命令下载Ollama模型。根据个人服务器硬件配置

复制代码
ollama run deepseek-r1:14b

二、放行端口

复制代码
#放行端口
ufw allow 11434

#查看端口状态
ufw status

三、设置环境变量:

1.编辑ollama.service

复制代码
vim /etc/systemd/system/ollama.service

2.在[Service]部分,Environment下面添加:

复制代码
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"

使用箭头移动光标到Environment下方,

键盘[i]键,进入编辑模式(左下角显示INSERT代表进入编辑模式)

输入以上两个配置

按[ESC]键,退出编辑模式

输入:wq保存并退出

3.重新加载systemd并重启Ollama

复制代码
systemctl deamon-reload
systemctl restart ollama

查看Ollama运行状态

复制代码
systemctl status ollama
按【q】退出

查看显存占用状态

复制代码
#英伟达
nvidia-smi

#其他软件
apt-get install nvtop -y
nvtop

四、使用Ollama

使用PageAssist、ChatBox、CherryStudio、AnythingLLM等方式连接即可

相关推荐
Cyrus_柯30 分钟前
IO进程(进程 Process)
linux·运维·服务器·c语言
诚丞成30 分钟前
流光溢彩的数字长河:Linux基础IO,文件系统的诗意漫游
linux·运维·服务器
愚润求学1 小时前
【Linux】分页式存储管理:深刻理解页表映射
linux·运维·服务器
-曾牛1 小时前
Spring Boot 深度集成 Ollama 指南:从聊天模型配置到生产级应用开发
java·人工智能·spring boot·后端·聊天机器人·本地部署·ollama
大白的编程日记.2 小时前
【Linux学习笔记】深入理解动静态库本质及其制作
linux·笔记·学习
白嫖不白嫖2 小时前
Telnet 命令详解
linux·运维
yjsstar2 小时前
Linux的SHELL脚本基础
linux·运维·服务器
chian-ocean2 小时前
深入解析Linux死锁:原理、原因及解决方案
java·linux·redis
道可云3 小时前
道可云人工智能每日资讯|《北京市人工智能赋能新型工业化行动方案(2025年)》发布
人工智能·百度·ar·deepseek
破刺不会编程3 小时前
Linux中的进程控制(下)
linux·运维·服务器·开发语言