开发者环境配置:用 Ollama 实现本地大模型部署(附下载慢的解决方案

这一篇,咱们聊聊怎么装 Ollama,并把那些动辄几个 G 的模型文件彻底安顿在 D 盘,同时通过手动导入的方法解决大文件限流网络问题。

为什么选择 Ollama

以前要在本地跑个 AI 模型,得配复杂的 Python 环境、装 CUDA 驱动,还要折腾各种依赖包。Ollama 的出现直接把这个门槛降到了零。它就像是模型界的 Docker,你只需要一行命令,它就能自动帮你调度显卡资源,把模型跑起来。

下载ollama

通过ollama部署模型

但是一般会有大文件限流下文会教大家跑满宽带的下载方法,就是部署会相对麻烦点需要手动导入

保卫 C 盘

Ollama 默认会把模型下载到 C 盘的用户目录下。现在的模型动不动就 5GB 起步,下几个模型 C 盘就得爆。所以在安装之前,咱们必须先给它改个家。

第一步,先在 D 盘的 developer 目录下建一个 ollama_models 文件夹。

第二步,用管理员身份打开 PowerShell 7,执行这行命令:

[Environment]::SetEnvironmentVariable("OLLAMA_MODELS", "D:\developer\ollama_models", "User")

这一步是永久性的环境变量修改。执行完之后,一定要记得彻底退出并重启 Ollama 软件。

解决下载慢:手动导入模型文件

很多人抱怨用 Ollama 命令行下载模型慢得像便秘。其实有个极客通用的"作弊"法:直接去 Hugging Face 或者 ModelScope 下载 .gguf 格式的文件。这些平台支持多线程下载,速度能直接拉满。

博主是5060 8g GPU所以选择了deepseek-r1-8b

下好文件后,还不能直接用。得在存放 .gguf 文件的目录下建一个名字叫 Modelfile 的文件(注意没后缀),里面写上:

FROM "D:\你的路径\文件名.gguf"

然后回到终端,运行:
ollama create 模型名 -f Modelfile

创建完成后运行ollama run 模型名

然后就可以愉快得使用了

相关推荐
数据知道21 小时前
MongoDB认证机制实战:详细讲述SCRAM-SHA与X.509证书认证配置
数据库·mongodb
lxl130721 小时前
C++算法(11)字符串
开发语言·c++·算法
陳103021 小时前
C++:哈希表
开发语言·c++·散列表
稻草猫.1 天前
SpringBoot日志全解析:从调试到持久化
java·开发语言·spring boot·java-ee·idea
雷工笔记1 天前
KingFusion 关系库查询核心:SQLQuery 与 AsynSQLQuery 函数全解析
数据库
zopple1 天前
Knife4j文档请求异常(基于SpringBoot3,查找原因并解决)
java·服务器·数据库
执笔为剑1 天前
docker环境升级数据库
数据库·docker·容器
小鸡吃米…1 天前
Python线程同步
开发语言·数据结构·python
白帽子黑客-宝哥1 天前
渗透测试“保姆级”实战成长手册
开发语言·网络安全·渗透测试·php
七七肆十九1 天前
PTA 习题9-1 时间换算
c语言·算法