ollama 基本使用教程

目录

[1. 安装 Ollama](#1. 安装 Ollama)

[macOS 或 Linux](#macOS 或 Linux)

Windows (WSL2)

[2. 基础命令](#2. 基础命令)

启动与停止

[更新 Ollama](#更新 Ollama)

[3. 模型管理](#3. 模型管理)

下载预训练模型

运行模型

查看已安装模型

删除模型

[从 Modelfile 创建自定义模型](#从 Modelfile 创建自定义模型)

[4. 高级功能](#4. 高级功能)

[服务器模式与 API](#服务器模式与 API)

多会话管理

环境变量配置

[5. 常见问题与技巧](#5. 常见问题与技巧)

加速模型下载

查看日志

模型参数调整

模型导出与分享


Ollama 是一个开源的大型语言模型服务工具,能够帮助用户在本地运行大模型。通过简单的安装指令,用户可以在本地运行开源的大型语言模型,如 Llama 21。

1. 安装 Ollama

支持 macOS、Linux 和 Windows(通过 WSL)。

macOS 或 Linux
bash 复制代码
# 一键安装脚本
curl -fsSL https://ollama.com/install.sh | sh
Windows (WSL2)
  1. 安装 WSL2 和 Ubuntu。

  2. 在 WSL 终端中运行上述安装脚本。


2. 基础命令

启动与停止
bash 复制代码
# 启动 Ollama 服务(后台运行)
ollama serve

# 停止服务
ollama stop
更新 Ollama
bash 复制代码
ollama upgrade

3. 模型管理

下载预训练模型
bash 复制代码
# 下载官方模型(如 llama2、mistral)
ollama pull <model-name>
# 示例
ollama pull llama2
运行模型
bash 复制代码
# 启动交互式对话
ollama run <model-name>
# 示例
ollama run llama2
查看已安装模型
bash 复制代码
ollama list
删除模型
bash 复制代码
ollama rm <model-name>
从 Modelfile 创建自定义模型
  1. 创建一个 Modelfile 文件:

    bash 复制代码
    FROM llama2  # 基础模型
    SYSTEM """你是一个友好的助手,用中文回答。"""
    PARAMETER temperature 0.7  # 控制生成随机性(0-1)
  2. 构建自定义模型:

    bash 复制代码
    ollama create my-model -f Modelfile
  3. 运行自定义模型:

    bash 复制代码
    ollama run my-model

4. 高级功能

服务器模式与 API

启动 API 服务(默认端口 11434):

bash 复制代码
ollama serve

通过 HTTP 调用 API:

bash 复制代码
curl http://localhost:11434/api/generate -d '{
  "model": "llama2",
  "prompt": "你好,请介绍一下你自己",
  "stream": false
}'
多会话管理
bash 复制代码
# 启动一个会话并命名
ollama run llama2 --name chat1
# 在另一个终端启动新会话
ollama run llama2 --name chat2
环境变量配置
bash 复制代码
# 更改默认端口
OLLAMA_HOST=0.0.0.0:8080 ollama serve

# 使用 GPU 加速(需 NVIDIA 驱动)
OLLAMA_GPU_METAL=1 ollama run llama2

5. 常见问题与技巧

加速模型下载
bash 复制代码
# 使用镜像源(如中国用户)
OLLAMA_MODELS=https://mirror.example.com ollama pull llama2
查看日志
bash 复制代码
tail -f ~/.ollama/logs/server.log
模型参数调整

Modelfile 中可设置:

  • temperature: 生成随机性(0=确定,1=随机)

  • num_ctx: 上下文长度(默认 2048)

  • num_gpu: 使用的 GPU 数量

模型导出与分享
bash 复制代码
# 导出模型
ollama export my-model > my-model.tar

# 导入模型
ollama import my-model.tar
相关推荐
沃尔威武14 分钟前
调试黑科技:Chrome DevTools时间旅行调试实战
前端·科技·chrome devtools
后端开发基础免费分享16 分钟前
Claude Code 最全使用指南:CLAUDE.md、rules、skills、memory 一次讲清
人工智能·ai·claude·claudecode
yuki_uix22 分钟前
虚拟 DOM 与 Diff 算法——React 性能优化的底层逻辑
前端·react.js·面试
yuki_uix24 分钟前
从输入 URL 到页面显示——浏览器工作原理全解析
前端·面试
Thomas.Sir33 分钟前
重构诊疗效率与精准度之【AI 赋能临床诊断与辅助决策从理论到实战】
人工智能·python·ai·医疗·诊断
weixin_4080996741 分钟前
【完整教程】天诺脚本如何调用 OCR 文字识别 API?自动识别屏幕文字实战(附代码)
前端·人工智能·后端·ocr·api·天诺脚本·自动识别文字脚本
吴声子夜歌42 分钟前
ES6——Generator函数详解
前端·javascript·es6
吴声子夜歌43 分钟前
ES6——Set和Map详解
前端·javascript·es6
码喽7号1 小时前
vue学习四:Axios网络请求
前端·vue.js·学习
m晴朗2 小时前
测试覆盖率从35%到80%:我用AI批量生成C++单元测试的完整方案
c++·gpt·ai