开发者环境配置:用 Ollama 实现本地大模型部署(附下载慢的解决方案

这一篇,咱们聊聊怎么装 Ollama,并把那些动辄几个 G 的模型文件彻底安顿在 D 盘,同时通过手动导入的方法解决大文件限流网络问题。

为什么选择 Ollama

以前要在本地跑个 AI 模型,得配复杂的 Python 环境、装 CUDA 驱动,还要折腾各种依赖包。Ollama 的出现直接把这个门槛降到了零。它就像是模型界的 Docker,你只需要一行命令,它就能自动帮你调度显卡资源,把模型跑起来。

下载ollama

通过ollama部署模型

但是一般会有大文件限流下文会教大家跑满宽带的下载方法,就是部署会相对麻烦点需要手动导入

保卫 C 盘

Ollama 默认会把模型下载到 C 盘的用户目录下。现在的模型动不动就 5GB 起步,下几个模型 C 盘就得爆。所以在安装之前,咱们必须先给它改个家。

第一步,先在 D 盘的 developer 目录下建一个 ollama_models 文件夹。

第二步,用管理员身份打开 PowerShell 7,执行这行命令:

[Environment]::SetEnvironmentVariable("OLLAMA_MODELS", "D:\developer\ollama_models", "User")

这一步是永久性的环境变量修改。执行完之后,一定要记得彻底退出并重启 Ollama 软件。

解决下载慢:手动导入模型文件

很多人抱怨用 Ollama 命令行下载模型慢得像便秘。其实有个极客通用的"作弊"法:直接去 Hugging Face 或者 ModelScope 下载 .gguf 格式的文件。这些平台支持多线程下载,速度能直接拉满。

博主是5060 8g GPU所以选择了deepseek-r1-8b

下好文件后,还不能直接用。得在存放 .gguf 文件的目录下建一个名字叫 Modelfile 的文件(注意没后缀),里面写上:

FROM "D:\你的路径\文件名.gguf"

然后回到终端,运行:
ollama create 模型名 -f Modelfile

创建完成后运行ollama run 模型名

然后就可以愉快得使用了

相关推荐
2501_918126912 小时前
stm32核心板是什么属性?
linux·c语言·stm32·嵌入式硬件·个人开发
m0_531237172 小时前
C语言-操作符练习
c语言·开发语言
Lxinccode2 小时前
AI编程(3) / claude code[3] : 更新apiKey
java·数据库·ai编程·claude code
tod1132 小时前
C++核心知识点全解析(二)
开发语言·c++·面试经验
数据知道2 小时前
MongoDB数据类型全景:String、Number、Date、Boolean 及特殊的 null 类型处理
数据库·mongodb
载数而行5202 小时前
算法系列2之最短路径
c语言·数据结构·c++·算法·贪心算法
weixin_440401692 小时前
Python数据分析(空值、重复值检测删除与设置)
开发语言·python·数据分析
消失的旧时光-19432 小时前
C++ 多线程与并发系统取向(五)—— std::atomic:原子操作与状态一致性(类比 Java Atomic)
开发语言·jvm·c++·并发
资深web全栈开发2 小时前
CoI - 组合优于继承:解耦的艺术
android·java·开发语言