基于腾讯云一键部署DeepSeek-R1大模型教程,本文腾讯云百科txybk.com是基于腾讯云高性能应用服务HAI,HAI预装DeepSeek-R1 1.5B及7B模型环境,需要更大尺寸模型(14B、32B、70B)文章后面有教程,支持思维链输出,HAI需要付费,可领券 txy.wiki 免费领腾讯云最新补贴券,详细流程如下:
一键部署DeepSeek-R1大模型教程
先打开高性能应用服务HAI:txybk.com/go/hai 如下图:
点击"立即使用",选择"社区应用",可以看到"DeepSeek-R1",如下图:
预装DeepSeek-R1 1.5B及7B模型环境,支持思维链输出
- 计费模式:可以选择按量计费或包年包月,按量计费是按小时计费,先使用后付费;包年包月是预付费,先付费再使用,至少买1个月。
- 地域:目前腾讯云HAI地域支持广州、南京、东京、北京、新加坡、硅谷、法兰克福、首尔、上海和重庆,大家根据所在地区,就近选择。
- 算力方案:GPU基础型、GPU进阶型、两卡GPU基础型和两卡GPU进阶型,方案不同显存、算力、CPU和内存配置也不同,运行DeepSeek-R1大模型,腾讯云百科选择了GPU进阶型。
- 云硬盘:200GB起步,默认提供80GB免费空间。
- 网络:每台实例免费提供500GB流量包,默认10Mbps带宽,每月刷新。
勾选协议,点立即购买,即可完成。
HAI已预装了DeepSeek-R1 1.5B及7B模型预装环境(DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B),不需要用户手动部署,创建时选择DeepSeek-R1应用就行了,适合新手的傻瓜教程。
DeepSeek-R1的使用
HAI创建完成后,开发者可通过站内信获取密码,选择可视化界面(ChatbotUI)或命令行(JupyterLab)直接调用:
可视化界面(ChatbotUI)
可视化界面调用方法:在HAI控制台选择【算力连接】--【ChatbotUI】在新窗口中可根据页面指引操作,如下图:
HAI算力连接
命令行(JupyterLab)
命令行调用方法:在HAI控制台选择【算力连接】--【JupyterLab】,新建一个Terminal,输入 ollama run deepseek-r1
命令加载默认的1.5b模型。进入JupyterLab,在terminal中输入如下命令行,即可开始使用:
运行1.5B命令:
ollama run deepseek-r1:1.5b
如果1.5B模型无法满足需求,可在命令行后输入7B/8B/14B等参数指令,自由切换至对应规格的模型。
运行7B命令:
ollama run deepseek-r1:7b
更大尺寸的DeepSeek-R1模型部署方式
HAI预转了DeepSeek-R1 1.5B及7B模型,如果需要更大尺寸的模型,执行一下命令:
DeepSeek-R1-Distill-Llama-8B:
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B:
ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B(对显存大小要求较高,请选择更高配置的机型,以免溢出):
ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B(对显存大小要求较高,请选择更高配置的机型,以免溢出):
ollama run deepseek-r1:70b
更多关于高性能应用服务HAI的使用说明及费用,请移步到HAI官方页面查看 txybk.com/go/hai