目录
[1. 安装 Ollama](#1. 安装 Ollama)
[macOS 或 Linux](#macOS 或 Linux)
[2. 基础命令](#2. 基础命令)
[更新 Ollama](#更新 Ollama)
[3. 模型管理](#3. 模型管理)
[从 Modelfile 创建自定义模型](#从 Modelfile 创建自定义模型)
[4. 高级功能](#4. 高级功能)
[服务器模式与 API](#服务器模式与 API)
[5. 常见问题与技巧](#5. 常见问题与技巧)
Ollama 是一个开源的大型语言模型服务工具,能够帮助用户在本地运行大模型。通过简单的安装指令,用户可以在本地运行开源的大型语言模型,如 Llama 21。
1. 安装 Ollama
支持 macOS、Linux 和 Windows(通过 WSL)。
macOS 或 Linux
bash
# 一键安装脚本
curl -fsSL https://ollama.com/install.sh | sh
Windows (WSL2)
-
安装 WSL2 和 Ubuntu。
-
在 WSL 终端中运行上述安装脚本。
2. 基础命令
启动与停止
bash
# 启动 Ollama 服务(后台运行)
ollama serve
# 停止服务
ollama stop
更新 Ollama
bash
ollama upgrade
3. 模型管理
下载预训练模型
bash
# 下载官方模型(如 llama2、mistral)
ollama pull <model-name>
# 示例
ollama pull llama2
运行模型
bash
# 启动交互式对话
ollama run <model-name>
# 示例
ollama run llama2
查看已安装模型
bash
ollama list
删除模型
bash
ollama rm <model-name>
从 Modelfile 创建自定义模型
-
创建一个
Modelfile
文件:bashFROM llama2 # 基础模型 SYSTEM """你是一个友好的助手,用中文回答。""" PARAMETER temperature 0.7 # 控制生成随机性(0-1)
-
构建自定义模型:
bashollama create my-model -f Modelfile
-
运行自定义模型:
bashollama run my-model
4. 高级功能
服务器模式与 API
启动 API 服务(默认端口 11434
):
bash
ollama serve
通过 HTTP 调用 API:
bash
curl http://localhost:11434/api/generate -d '{
"model": "llama2",
"prompt": "你好,请介绍一下你自己",
"stream": false
}'
多会话管理
bash
# 启动一个会话并命名
ollama run llama2 --name chat1
# 在另一个终端启动新会话
ollama run llama2 --name chat2
环境变量配置
bash
# 更改默认端口
OLLAMA_HOST=0.0.0.0:8080 ollama serve
# 使用 GPU 加速(需 NVIDIA 驱动)
OLLAMA_GPU_METAL=1 ollama run llama2
5. 常见问题与技巧
加速模型下载
bash
# 使用镜像源(如中国用户)
OLLAMA_MODELS=https://mirror.example.com ollama pull llama2
查看日志
bash
tail -f ~/.ollama/logs/server.log
模型参数调整
在 Modelfile
中可设置:
-
temperature
: 生成随机性(0=确定,1=随机) -
num_ctx
: 上下文长度(默认 2048) -
num_gpu
: 使用的 GPU 数量
模型导出与分享
bash
# 导出模型
ollama export my-model > my-model.tar
# 导入模型
ollama import my-model.tar