Ollama本地安装基础教程

前言

在安装ollama的时候,大家有没有下载了几个AI大模型后,惊讶地发现系统盘空间所剩无几?或者想要将模型文件集中管理,却不知道如何改变默认存储路径?本文,我将手把手教你如何完全掌控Ollama的安装和模型存储位置,让大模型"住"进你指定的文件夹!

一、自定义ollama安装路径

首先,访问 Ollama 官网下载对应操作系统的安装程序。

ollama默认安装在系统盘,当AI模型文件几十GB时,系统盘很快就会被塞满。Ollama虽然安装包不大,但下载的模型文件却相当庞大,所以需要通过自定义安装和存储路径,在ollama安装目录打开cmd,在执行安装得时候制定目录:

等到安装之后,验证是否安装成功

复制代码
ollama --version

如果出现ollama对应版本说明安装成功。

二、创建大模型存储目录

ollama安装完成之后,需要设置大模型环境变量,也就是制定大模型存储得目录。

需要注意的是,设置环境变量之后需要重启ollama,否则不会生效。

接下来就是,安装千问大模型,执行ollama run qwen2.5,如果ollama没有该模型就会去下载,这个需要科学上网。

三、测试大模型

安装完成之后,再次执行ollama run qwen2.5 进入聊天模式,比如输入:你是谁?

至此,自定义ollama安装就已经完成,后面下载的ollama大模型也会存储在我们指定的目录中。

总结

通过自定义Ollama安装路径与模型存储目录,成功解决了大模型占满系统盘空间的痛点。只需设置OLLAMA_MODELS环境变量并重启服务,就能将模型文件定向存储至指定位置,并安装测试千问大模型验证了方案的可行性。这套方法一劳永逸,让本地AI模型管理变得井井有条,为后续探索更多开源模型奠定了清爽、可控的基础。

相关推荐
福大大架构师每日一题4 小时前
ollama v0.23.0 发布:原生支持 Claude Desktop 模型推荐与底层稳定性全面升级
ollama
福大大架构师每日一题3 天前
ollama v0.22.1 重大更新全解析:新增Poolside集成、模型推荐机制与多架构适配
架构·ollama
不懒不懒3 天前
【从零入门本地大模型:Ollama 安装部署 + Qwen2.5 实现零样本情感分类】
人工智能·分类·数据挖掘·大模型·ollama
岛雨QA4 天前
🎉Token自由-Ollama部署本地大模型超详细操作指南
人工智能·llm·ollama
青龙小码农7 天前
milvus+elasticsearch+ollama实现企业级RAG搭建
elasticsearch·milvus·ollama·rga
福大大架构师每日一题9 天前
ollama v0.21.2 最新更新详解:OpenClaw 更稳了,模型推荐顺序终于固定,云端结构化输出说明也补上了
ollama
nicepainkiller10 天前
Coza 本地搭建 + Ollama支持
ollama·coza
java_logo10 天前
Docker 部署 Open WebUI + Ollama 完整教程(Windows / Linux 通用)—— 打造自己的本地OpenAI
linux·docker·容器·ollama·open-webui·open-webui部署·open-webui教程
钟智强11 天前
国内环境Ollama安装与DeepSeek-R1:1.5b部署全攻略
安全·web安全·网络安全·ollama·deepseek