1 使用ollama完成DeepSeek本地部署

1 ollama

1.1 什么是ollama

ollama是一个开源的 LLM(大型语言模型)服务工具,用于简化在本地运行大语言模型,降低使用大语言模型的门槛,使得大模型的开发者、研究人员和爱好者能够在本地环境快速实验、管理和部署最新大语言模型。

1.2 下载ollama

(1)直接从ollama官网下载ollama:https://ollama.com/download

不推荐此方式,下载速度巨慢,直接从github上下载也有相同的问题。

(2)网上推荐的通过github加速器下载github上的安装包,加速器地址:https://github.moeyy.xyz/

也不推荐,新版ollama安装包较大,无法下载,只能下载较老版本。

(3)通过迅雷下载(推荐),ollama的发布版本地址:https://github.com/ollama/ollama/releases

选择自己需要的安装包,右键,复制链接到迅雷内粘贴即可下载,我这里选择的是ollama-windows-amd64.zip可以免安装,也可以直接选择OllamaSetup.exe运行安装程序完成安装。

1.3 安装并运行ollama

(1)解压ollama-windows-amd64.zip到自己的安装目录,如

(2)添加ollama.exe路径到环境变量:

这样就可以在cmd中运行ollama了。

(3)添加模型的下载路径,用于保存下载的模型文件。

新建环境变量OLLAMA_MODELS,添加自己的存储路径,我的模型文件保存路径为:D:\software\AIModel\ollama-windows-amd64\ollamaModel\Models,要保证路径下无其他文件否则可能无效。不配置此路径或配置路径无效,模型将默认下载到C:\Users\WRJ.ollama\models目录下。

(4)运行ollama

使用快捷键Win+R打开运行,输入cmd运行命令行,输入ollama serve即可运行运行ollama。

2 部署DeepSeek模型

2.1 进入ollama官网,点击models或直接点击以下链接:https://ollama.com/search

首个就是deepseek模型,点击进入。

根据自己电脑的配置选择合适的模型,我电脑是AMD 9700X+RTX4070TI SUPER 16G,实测运行14B模型无压力,响应流畅,运行32B需要等待20-30s才可响应。选择好模型后复制命令ollama run deepseek-r1:32b,打开一个新的cmd窗口粘贴运行,等待下载完成即可直接使用了。

相关推荐
福大大架构师每日一题12 小时前
ollama v0.20.7 最新版更新详解:ROCm 7.2.1、Gemma4 渲染修复与多项 Metal/Renderer 回归修补
人工智能·数据挖掘·回归·ollama
AC赳赳老秦1 天前
OpenClaw生成博客封面图+标题,适配CSDN视觉搜索,提升点击量
运维·人工智能·python·自动化·php·deepseek·openclaw
陈振wx:zchen20081 天前
SpringAI+DeepSeek大模型开发
大模型·springai·deepseek
Aaron_Chou3131 天前
如何在Trae中配置Claude,gpt-5.4,deepseek等大模型的中转API
人工智能·gpt·claude·deepseek·cline·trae
大模型真好玩2 天前
大模型训练全流程实战指南工具篇(十一)—— 大模型训练参数调优实战:从小白到调参高手
人工智能·langchain·deepseek
EdmundXjs2 天前
Claude+qwen3-vl:8B HTTP交互信息解释
http·claude·ollama·qwen3
Ztopcloud极拓云视角3 天前
GPT-6、Claude Opus 4.7、DeepSeek V4同期上线,如何快速搭一个自动选模型的路由网关?
gpt·claude·deepseek
时光之源3 天前
一场关于红绿灯检测项目的辩论赛——YOLOv26
深度学习·yolo·grok·gemini·deepseek
云和数据.ChenGuang4 天前
机器学习之方差和标准差计算
人工智能·python·机器学习·django·pygame·deepseek
大模型真好玩4 天前
GitHub 85K Star 新王挑战 357K Star 霸主:Hermes 还是 OpenClaw?最强Agent框架怎么选
人工智能·agent·deepseek