ollama如何将模型移动到D盘以及如何直接下载到D盘

看完本文,必然解决你的问题。

你在网页上或者B站视频上搜到的所有资料肯定都是修改环境变量:

修改环境变量要修改两个地方:

1、用户变量。

在path中增加:D:\Ollama

2、系统变量

在系统变量中增加也就是新建:

变量名:OLLAMA_MODELS

变量值:D:\Ollama

然后在D盘中建立Ollama文件夹。

网上所有的资料都是到此为止,都是他妈的狗屌。到此为止下载模型仍然会在c盘,无论你重启cmd还是重启电脑都没用。

正确的做法是,找到ollama的默认安装路径,也就是C:\Users\MECREVO\.ollama\models

将models文件夹下面的两个文件夹blobs和mainfests拷贝到D:\Ollama文件夹下。这两个文件夹的作用是:blobs保存模型文件。mainfests保存模型的版本号。

如果之前已经下载过大模型,可以在C:\Users\MECREVO\.ollama\models\blobs文件夹下将模型文件移动到D:\Ollama\blobs文件夹下。

然后必须重启系统。在命令行中输入:ollama list,会直接显示你之间下载过的大模型。

在命令行终端直接下载大模型就会直接进入D:\Ollama\blobs文件夹下了。

相关推荐
razelan2 天前
本地大模型系列:1.配置本地lm Studio的大模型助手(another)
人工智能·ollama
skywalk81633 天前
如何设置Ollama可以让其它机器远程访问它的服务?
智能路由器·ollama
墨10243 天前
一文教你OpenClaw Docker 部署并调用本地Qwen3.5 9B模型
docker·ai·本地部署·ollama·openclaw·qwen3.5
封奚泽优4 天前
Ollama模型文件默认存储位置与更改方法(Windows)
windows·ollama
vi_h9 天前
在 macOS 上通过 Docker 安装并运行 Ollama(详细可执行教程)
macos·docker·ollama
曲幽10 天前
FastAPI流式输出实战与避坑指南:让AI像人一样“边想边说”
python·ai·fastapi·web·stream·chat·async·generator·ollama
曲幽14 天前
FastAPI实战:打造本地文生图接口,ollama+diffusers让AI绘画更听话
python·fastapi·web·cors·diffusers·lcm·ollama·dreamshaper8·txt2img
曲幽15 天前
我用FastAPI接ollama大模型,差点被asyncio整崩溃(附对话窗口实战)
python·fastapi·web·async·httpx·asyncio·ollama
曲幽16 天前
FastAPI + Ollama 实战:搭一个能查天气的AI助手
python·ai·lora·torch·fastapi·web·model·ollama·weatherapi
bwz999@88.com20 天前
CentOS 7安装ollama
linux·centos·ollama