喂饭式教程 - 腾讯云轻量服务器部署DeepSeek

前置条件

有1台 最低配置为 2核4G 的轻量应用服务器,理论上来说,服务器配置越高,效果越好。

一、选择镜像

新购或旧有系统重装,选择应用模板,再选择 DeepSeek-R1 1.5B 即可。

二、查看应用信息

系统安装完成后,在轻量应用服务器详细页面,可以查看应用信息及进行应用管理。

三、开始使用

默认自带的有Open WebUI 界面,可以可视化的使用大模型。

若系统刚重装完毕,点击该网站有可能打不开,大概率是应用正在启动,稍后再试即可。

四、创建管理员账号

五、进行对话

至此私有化部署及设置DeepSeek已完成,可以进行对话。

不愧是AI,想的就是多。

六、选择模型

系统默认已经完成DeepSeek 1.5B 模型的安装,也可以添加模型。

七、添加模型

DeepSeek-R1就是深度搜索-R1模型,包含Distilled models 的是蒸馏模型。

模型 模型名 模型大小
DeepSeek-R1-Distill-Qwen-1.5B deepseek-r1:1.5b 1.1G
DeepSeek-R1-Distill-Qwen-7B deepseek-r1:7b 4.7G
DeepSeek-R1-Distill-Llama-8B deepseek-r1:8b 4.9G
DeepSeek-R1-Distill-Qwen-14B deepseek-r1:14b 9.0G
DeepSeek-R1-Distill-Qwen-32B deepseek-r1:32b 20G
DeepSeek-R1-Distill-Llama-70B deepseek-r1:70b 43G
DeepSeek-R1 deepseek-r1:671b 404G

具体详细信息以官网介绍为准。

如要安装模型 DeepSeek-R1-Distill-Qwen-7B ,则只需输入模型名 deepseek-r1:7b ,点击拉取后,系统会自动拉取模型进行下载,下载完成后,再选择模型即可。

下载通常需要较多的时间。

八、对话高级设置

点击右上角按钮可以进入高级设置,适合对AI模型有一定了解的用户配置。

选择什么样的模型

从表中可以看出,模型参数越大则文件体积越大,相应的对硬件要求也就越高。从运行结果来看,拥有更大参数量的模型(如DeepSeek-R1)在推理效果上更胜一筹,但另一方面,更小参数的 Distilled models(蒸馏模型)模型的响应速度更快、占用资源更少、部署时长更短,在处理较为简单的任务时,仍是不错的选择。

具体选择要根据服务器硬件参数来决定,配置低的就选择低参数量,如要追求更好的推理结果,高参数量的模型也必须搭配高配置的服务器。

如果运行一个模型响应很卡顿,大概率说明服务器配置不够,可以考虑升级配置或降低模型参数量。

相关推荐
wirepuller_king3 小时前
创建Linux虚拟环境并远程连接,finalshell自定义壁纸
linux·运维·服务器
Yan-英杰3 小时前
【百日精通JAVA | SQL篇 | 第二篇】数据库操作
服务器·数据库·sql
风123456789~4 小时前
【Linux运维】查询指定日期的上月
linux·运维·服务器
CC.cc.5 小时前
Linux系统之systemctl管理服务及编译安装配置文件安装实现systemctl管理服务
linux·运维·服务器
爱写代码的小朋友7 小时前
华三交换机配置常用命令
运维·服务器·网络
wangjun51597 小时前
jenkins 参数化发布到服务器 publish over ssh、label、Parameterized publishing
服务器·ssh·jenkins
愚润求学7 小时前
【Linux】Linux权限
linux·服务器·语法
低头不见7 小时前
一个服务器算分布式吗,分布式需要几个服务器
运维·服务器·分布式
麻芝汤圆7 小时前
使用 MapReduce 进行高效数据清洗:从理论到实践
大数据·linux·服务器·网络·数据库·windows·mapreduce
赋创小助手7 小时前
Gartner预计2025年AI支出达6440亿美元:数据中心与服务器市场的关键驱动与挑战
运维·服务器·人工智能·科技·架构