释放 Mac 存储空间:Ollama 模型迁移到外接 NVMe 磁盘

目录


背景

在本地运行 Ollama 时,模型数据默认保存在 ~/.ollama/models。 但对于 macOS 用户来说,苹果的存储是真的贵,真的是 Only Apple can do!!!所以就考虑存储外置的方案。

在直接买品牌移动固态硬盘 与 组装方案(固态硬盘 + 硬盘盒)之间做了对比,发现组装方案性价比更高,处理完成之后,开始进行处理。


一、准备工作

1. 确认外接 NVMe 已挂载

可以通过以下命令确认硬盘是否挂载成功:

bash 复制代码
ls /Volumes

假设外接盘名称为 NVME1TB

2. 创建模型目录

bash 复制代码
mkdir -p "/Volumes/NVME1TB/ollama-models"

二、迁移已有模型数据(可选)

如果已经用 Ollama 下载过模型,可先将模型文件移过去:

bash 复制代码
mv ~/.ollama/models/* "/Volumes/NVME1TB/ollama-models/"

⚠️ 如担心误操作,可使用 cp -r 复制后确认再删除原目录内容。

扩展: 不同系统的模型存放位置:

  • macOS~/.ollama/models
  • Linux/usr/share/ollama/.ollama/models
  • WindowsC:\Users\%username%\.ollama\models

三、配置模型目录

1. 设置环境变量

bash 复制代码
# 通过命令直接写入环境变量,或编辑配置文件
echo 'export OLLAMA_MODELS="/Volumes/NVME1TB/ollama-models"' >> ~/.zshrc

# 使配置生效
source ~/.zshrc

验证设置是否生效:

bash 复制代码
echo $OLLAMA_MODELS

输出应为新路径 /Volumes/NVME1TB/ollama-models

【注】通过环境变量方式需要命令行来启动 Ollama因为 Ollama 桌面版启动不会读取环境变量;这个时候软链接的优势就体现出来了。

shell 复制代码
# 命令行启动 Ollama
ollama serve

2. 使用软链接(强烈推荐)

如果想保留默认路径结构,也可以直接用软链接方式;这种方式使用命令行 和 桌面版都可以

bash 复制代码
rm -rf ~/.ollama/models

ln -s /Volumes/NVME1TB/ollama-models ~/.ollama/models

四、测试是否成功

尝试运行一个模型:

bash 复制代码
ollama run llama2

如模型自动下载到新路径,说明迁移成功。


相关推荐
xwz小王子1 小时前
从LLM到WM:大语言模型如何进化成具身世界模型?
人工智能·语言模型·自然语言处理
静心问道1 小时前
FLAN-T5:规模化指令微调的语言模型
人工智能·语言模型·自然语言处理
李师兄说大模型1 小时前
KDD 2025 | 地理定位中的群体智能:一个多智能体大型视觉语言模型协同框架
人工智能·深度学习·机器学习·语言模型·自然语言处理·大模型·deepseek
Sherlock Ma1 小时前
百度开源文心一言4.5:论文解读和使用入门
人工智能·百度·自然语言处理·开源·大模型·文心一言·多模态
weisian1511 小时前
人工智能-基础篇-18-什么是RAG(检索增强生成:知识库+向量化技术+大语言模型LLM整合的技术框架)
人工智能·语言模型·自然语言处理
喜欢吃豆2 小时前
目前最火的agent方向-A2A快速实战构建(二): AutoGen模型集成指南:从OpenAI到本地部署的全场景LLM解决方案
后端·python·深度学习·flask·大模型
喜欢吃豆3 小时前
快速手搓一个MCP服务指南(九): FastMCP 服务器组合技术:构建模块化AI应用的终极方案
服务器·人工智能·python·深度学习·大模型·github·fastmcp
xiangduanjava3 小时前
关于安装Ollama大语言模型本地部署工具
人工智能·语言模型·自然语言处理
九丝城主4 小时前
2025使用VM虚拟机安装配置Macos苹果系统下Flutter开发环境保姆级教程--上篇
服务器·flutter·macos·vmware
一 铭7 小时前
AI领域新趋势:从提示(Prompt)工程到上下文(Context)工程
人工智能·语言模型·大模型·llm·prompt