探索大语言模型(LLM):Ollama快速安装部署及使用(含Linux环境下离线安装)

前言

Ollama 是一个开源的本地化大模型运行平台,支持用户直接在个人计算机上部署、管理和交互大型语言模型(LLMs),无需依赖云端服务。而且其混合推理的特性也使得CPU和GPU的算力能够充分被使用,能够在同等配置下跑更大的模型,是非常适合个人学习使用的平台。本篇将详细介绍Ollama在各种平台上的详细安装过程以及应用。


Ollama的安装

官网地址: ollama.com/

进到官网之后点击Download 然后就可以选择相应的安装包

在线安装

Windows环境下下载安装根据安装包指引下载安装即可,linux环境下执行以下命令:

bash 复制代码
curl -fsSL https://ollama.com/install.sh | sh

离线安装

在线安装受网络的影响,并不能完全解决所有的安装问题,那么就可以选择离线安装的方式安装Ollama。 离线包下载地址: github.com/ollama/olla... 由于Windows可以直接在官网下载安装包并安装,本文以Linux-amd64环境下的安装为例 下载好压缩包后,新建一个文件夹名为ollama,然后解压

bash 复制代码
mkdir ./ollama
tar -zxvf ollama-linux-amd64.tgz -C ./ollama

为ollama添加执行权限

bash 复制代码
cd ./bin
chmod +x ollama

添加环境变量 在 .bashrc 文件结尾写入ollama/bin文件路径

bash 复制代码
vi ~/.bashrc

然后在下面添加以下内容(假设压缩包下载的路径为/home/data,读者应该根据自己实际路径调整)

bash 复制代码
export PATH=$PATH:/home/data/ollama/bin

更新环境变量

bash 复制代码
source ~/.bashrc

修改Ollama模型保存路径

这一步还是很有必要的,能够方便管理模型,尤其是在windows系统中,如果不做相关的设置,会默认下载到C盘

Windows环境修改保存路径

然后点击环境变量 这里选任意一个就行 变量名为OLLAMA_MODELS

Linux环境修改保存路径

Linux环境更为简单,直接打开bashrc添加环境变量即可

bash 复制代码
vi ~/.bashrc

然后添加

bash 复制代码
export OLLAMA_MODELS=你想设置的路径

保存并退出后

bash 复制代码
source ~/.bashrc

然后可以使用以下命令启动ollama

bash 复制代码
ollama start

模型下载

在线下载

ollama官网: ollama.com/ 打开官网直接搜索需要的模型,本文以qwen3为例 然后点击适合自己设备的模型(基本上size比自己的显存小一点就合适) 然后复制命令到命令行 随后ollama会自动下载并运行该模型

手动下载

手动下载的方式参照玩转大语言模型------ollama导入huggingface下载的模型,这里不再赘述

相关推荐
aircrushin5 小时前
三分钟说清楚 ReAct Agent 的技术实现
人工智能
NAGNIP6 小时前
一文搞懂树模型与集成模型
算法·面试
NAGNIP6 小时前
万字长文!一文搞懂监督学习中的分类模型!
算法·面试
WangYaolove13146 小时前
基于深度学习的中文情感分析系统(源码+文档)
python·深度学习·django·毕业设计·源码
技术狂人1686 小时前
工业大模型工程化部署实战!4 卡 L40S 高可用集群(动态资源调度 + 监控告警 + 国产化适配)
人工智能·算法·面试·职场和发展·vllm
软件算法开发6 小时前
基于改进麻雀优化的LSTM深度学习网络模型(ASFSSA-LSTM)的一维时间序列预测算法matlab仿真
深度学习·matlab·lstm·一维时间序列预测·改进麻雀优化·asfssa-lstm
D_FW6 小时前
数据结构第六章:图
数据结构·算法
好奇龙猫6 小时前
【人工智能学习-AI入试相关题目练习-第三次】
人工智能
柳杉7 小时前
建议收藏 | 2026年AI工具封神榜:从Sora到混元3D,生产力彻底爆发
前端·人工智能·后端
狮子座明仔7 小时前
Engram:DeepSeek提出条件记忆模块,“查算分离“架构开启LLM稀疏性新维度
人工智能·深度学习·语言模型·自然语言处理·架构·记忆