Ollama安装及运行模型

方法1:官方命令行安装

复制代码
安装:
curl -fsSL https://ollama.com/install.sh | sh
注:需要网络支持,可以安装的话就不需要执行手动安装的配置,官方脚本会把所有东西都配置好,如果要修改镜像源可查看后面修改镜像源的方法(2.4)。

启动
ollama serve

验证安装成功(显示版本号即成功)
ollama -v

方法2:手动安装Ollama二进制文件并配置

一、准备工作(安装依赖)
复制代码
# 更新软件源
sudo apt update

# 安装 zst 解压工具(用于解压 .tar.zst 格式包)
sudo apt install zstd -y

下载Ollama二进制文件
window浏览器直接访问:https://ollama.com/download/ollama-linux-amd64.tar.zst

# 上传二进制文件到服务器
Linux物理服务器:直接远程连接上传文件。
WSL安装的Linux:sudo cp /mnt/c/Downloads/ollama-linux-amd64.tar.zst /home/commonsofts/
说明:WSL安装Linux会默认挂在本地磁盘,用mnt/(磁盘符)可以直接访问。
二、解压 Ollama 安装包
复制代码
# 进入安装目录(示例:/home/commonsofts,可自定义)
cd /home/commonsofts

# 解压 ollama-linux-amd64.tar.zst(必须加 sudo,系统目录权限)
sudo tar -I zstd -xvf ollama-linux-amd64.tar.zst

# 将可执行文件复制到系统命令目录(全局可用)
sudo cp bin/ollama /usr/local/bin/

# 验证安装成功(显示版本号即成功)
ollama --version
三、注册系统服务 + 开机自启
复制代码
# 创建 systemd 服务文件
sudo tee /etc/systemd/system/ollama.service << EOF
[Unit]
Description=Ollama Service
After=network.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=root
Group=root
Restart=always
RestartSec=3

[Install]
WantedBy=multi-user.target
EOF

# 重新加载服务配置
sudo systemctl daemon-reload

# 启动 Ollama 服务
sudo systemctl start ollama

# 设置开机自启
sudo systemctl enable ollama

# 查看服务状态(验证运行正常)
sudo systemctl status ollama
四、配置国内镜像加速(必配,解决下载慢)
复制代码
# Ollama 默认模型镜像源:
- 官方 registry:https://registry.ollama.com
- 国内加速镜像:https://mirror.ollama.com
- 配置方式:设置环境变量 OLLAMA_MODEL_SERVER

# 国内可用镜像列表(任选一个)
• 阿里云(最快):https://mirrors.aliyun.com/ollama
• 清华镜像:https://ollama.tuna.tsinghua.edu.cn
• 华为云:https://mirrors.huaweicloud.com/ollama

# 编辑服务文件,添加镜像环境变量
sudo tee /etc/systemd/system/ollama.service << EOF
[Unit]
Description=Ollama Service
After=network.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=root
Group=root
Restart=always
RestartSec=3
# 国内阿里云镜像,如果不需要可以注释掉
Environment="OLLAMA_MODEL_SERVER=https://mirrors.aliyun.com/ollama"

[Install]
WantedBy=multi-user.target
EOF

# 重新加载配置并重启服务
sudo systemctl daemon-reload
sudo systemctl restart ollama
五、安装运行模型
复制代码
模型名称可以从这里找:https://ollama.com/search,涉及命令如下:
sudo ollama pull 模型名称                     # 下载/拉取模型(例:ollama pull qwen2.5:7b)
sudo ollama run 模型名称                      # 运行模型并进入对话(未下载会自动下载)

类如:
sudo ollama pull qwen2.5:7b  # 下载模型
sudo ollama run qwen2.5:7b  # 运行模型,此时就可以在命令行窗口和大模型对话了。
或
sudo ollama run qwen2.5:7b  # 会执行pull和run操作
六、Ollama 常用管理命令
复制代码
# ==================== 一、Ollama 服务管理命令 ====================
sudo systemctl start ollama              # 启动 Ollama 服务 (ollama serve)
sudo systemctl stop ollama               # 停止 Ollama 服务
sudo systemctl restart ollama            # 重启 Ollama 服务
sudo systemctl enable ollama             # 设置 Ollama 开机自启
sudo systemctl disable ollama            # 取消 Ollama 开机自启
sudo systemctl status ollama             # 查看服务运行状态(是否正常启动)

# ==================== 二、Ollama 模型核心操作命令 ====================
sudo ollama list                             # 查看本地已安装的所有模型列表
sudo ollama pull 模型名称                     # 下载/拉取模型(例:ollama pull qwen2.5:7b)
sudo ollama run 模型名称                      # 运行模型并进入对话(未下载会自动下载)
sudo ollama rm 模型名称                       # 删除本地指定模型(例:ollama rm qwen2.5:7b)
sudo ollama show 模型名称                     # 查看模型的详细信息(配置、参数等)
sudo ollama ps                               # 查看当前正在运行中的模型进程
sudo ollama stop --all                       # 停止所有正在运行的模型

# ==================== 三、Ollama 日志信息命令 ====================
journalctl -u ollama -f						# 实时滚动日志(排查问题最常用)
journalctl -u ollama -n 100					# 查看最近 100 行日志
journalctl -u ollama --since "today"		# 查看今天所有日志
journalctl -u ollama --since "1 hour ago"	# 查看最近 1 小时日志
sudo journalctl --rotate && sudo journalctl --vacuum-time=1d 	# 清理旧日志(释放空间)

# ==================== 四、Ollama 基础信息命令 ====================
sudo ollama --version                         # 查看 Ollama 版本号
sudo ollama help                              # 查看 Ollama 帮助文档
相关推荐
深念Y2 小时前
Nginx和Spring Cloud Gateway
运维·服务器·网络·网关·nginx·spring cloud·微服务
困惑阿三2 小时前
全栈部署排雷手册:从 405 报错到飞书推送成功
服务器·前端·后端·nginx·阿里云·node.js·飞书
野犬寒鸦2 小时前
从零起步学习JVM|| 第二章:JVM基本组成及JVM内存区域详解
服务器·开发语言·后端·学习·面试·职场和发展
vx-bot5556662 小时前
企业微信ipad协议的防封号技术体系与策略实践
服务器·企业微信·ipad
菩提树下的凡夫2 小时前
基于C++语言的Onnx CUDA加速部署推理
linux·运维·人工智能
渔民小镇2 小时前
告别 Redis/MQ —— ionet 分布式事件总线实战
java·服务器·分布式
Lyre丶2 小时前
GAMIT netsel模块子网划分与解算
linux·gamit
Predestination王瀞潞2 小时前
4.3.2 存储->微软文件系统标准(微软,自有技术标准):NTFS(New Technology File System)新技术文件系统
linux·microsoft·ntfs
___波子 Pro Max.2 小时前
Linux rsync使用教程
linux