服务器上通过ollama部署deepseek

2025年1月下旬,DeepSeek的R1模型发布后的一周内就火了,性能比肩OpenAI的o1模型,且训练成本仅为560万美元,成本远低于openAI,使得英伟达股票大跌。

下面我们来看下如何个人如何部署deepseek-r1模型。

我是用的仙宫云的服务器通过ollama部署的deepseek.

首先我们去ollama官方网站https://ollama.com/

下载ollama

我这里是ubuntu服务器,执行命令

curl -fsSL https://ollama.com/install.sh | sh

安装之后ollama之后,

由于我需要外网访问,改下环境配置

export OLLAMA_HOST=0.0.0.0:11434;

export OLLAMA_ORIGINS= *

再执行ollama serve启动

去ollama上找下deepseek 模型 https://ollama.com/search

deepseek有很多参数的模型可以选择,根据自己的机器选择

我这里是一台4090D,选择了32b的模型

执行ollama run deepseek-r1:32b就可以下载模型,下载完成出现下图这个命令行发送信息的提示就算成功。

测试下效果,好了部署是没问题了,在命令行太不方便了,这里我们用chatbox来配置带有界面的聊天。

下载个chatbox

https://chatboxai.app/zh#download

这里我选择window客户端

配置在仙宫云服务器的域名地址

配置好了之后会自动选择deepseek-r1:32b的模型

测试下效果,问deepseek如何部署,很快就出结果了,聊天框哪里会显示deepseek-r1:32b模型

好了这就是ollama部署的整个deepseek的流程,是不是很简单。

.

相关推荐
躺柒2 分钟前
读人机沟通法则:理解数字世界的设计与形成01机器循环运行
人工智能·计算机·计算·数字世界·人机对话
智算菩萨6 分钟前
摩擦电纳米发电机近期进展的理论脉络梳理:从接触起电到统一建模与能量转换
linux·人工智能·算法
LiYingL6 分钟前
TRACEALIGN:追踪大规模语言模型对齐漂移的原因和保护措施
人工智能·语言模型·自然语言处理
Lbwnb丶8 分钟前
检测服务器是否是虚拟化,如KVM,VM等
linux·运维·服务器
老猿讲编程13 分钟前
【车载信息安全系列4】基于Linux中UIO的HSE应用实现
linux·运维·服务器
囊中之锥.18 分钟前
机器学习第三部分---决策树
人工智能·决策树·机器学习
福大大架构师每日一题24 分钟前
ollama v0.13.5 发布详解:新模型接入、引擎升级与工具能力增强
ollama
YJlio42 分钟前
ProcessExplorer_17.09_x64-Chs 新版本升级:我看到的区别与优势(含升级思路与注意点)
人工智能·笔记·学习
wanhengidc1 小时前
巨椰 云手机 云游戏稳定运行
运维·服务器·arm开发·游戏·云计算
Aaron15881 小时前
基于RFSOC+VU13P+GPU架构在雷达电子战的技术
人工智能·算法·fpga开发·架构·硬件工程·信号处理·基带工程