x ollama - 本地大语言模型运行工具
想要在本地运行大语言模型?Ollama 让你轻松实现!x ollama 封装了 Ollama,提供便捷的本地 AI 体验。
快速上手
sh
x ollama # 启动对话
x ollama chat llama2 # 与 llama2 对话
核心功能
模型管理
sh
x ollama list # 列出已下载模型
x ollama pull llama2 # 下载模型
x ollama rm llama2 # 删除模型
模型运行
sh
x ollama run llama2 # 运行模型
x ollama chat # 对话模式
x ollama generate # 生成模式
快捷操作
sh
x ollama <model> "问题" # 快速问答
支持的模型
- Llama 2
- Mistral
- Code Llama
- Orca
- Vicuna
- 第一次使用需要下载模型,耗时较长。下载完成后,后续使用将非常快速!
适用场景
- 本地 AI 体验
- 隐私敏感场景(数据不离开本地)
- 离线使用
- 开发测试