使用ollama运行本地大模型

一、背景

在研发一个AI与传统业务系统结合的产品,需要本地化LLM(大语言模型)环境。所以选择ollama来管理本地LLM,本次学会安装使用ollama。

二、ollama下载安装及使用

1.ollama下载

打开官网去下载

https://ollama.com/download/windows

windows也可以直接点击下面链接

https://ollama.com/download/OllamaSetup.exe

2.windows安装

一路下一步

3.常见操作

(1)下载模型

复制代码
ollama pull qwen2:1.5b

(2)查看已下载模型

复制代码
ollama list

(3)直接在命令行聊天(测试用)

复制代码
ollama run qwen2:1.5b

(4)删除不用的模型

复制代码
ollama rm qwen2:1.5b

(5)导出模型

复制代码
# 1. 查看本地模型
ollama list

# 2. 复制模型到自定义名称(可选,方便识别)
ollama cp qwen2:7b my-qwen2-7b

# 3. 打包整个 Ollama 模型目录(Windows)
# 默认路径:C:\Users\<你的用户名>\.ollama
tar -czf ollama-models-backup.tar.gz C:\Users\你的用户名\.ollama

# Linux/macOS
tar -czf ollama-models-backup.tar.gz ~/.ollama

(6)导入模型

复制代码
# 1. 先安装 Ollama(同版本最好)
# 2. 停止 Ollama 服务
# Windows(PowerShell)
Stop-Service -Name Ollama
# Linux
systemctl stop ollama

# 3. 解压备份包到目标机器的 .ollama 目录
# Windows
tar -xf ollama-models-backup.tar.gz -C C:\Users\你的用户名\
# Linux/macOS
tar -xf ollama-models-backup.tar.gz -C ~/

# 4. 重启 Ollama 服务
# Windows
Start-Service -Name Ollama
# Linux
systemctl start ollama

# 5. 验证
ollama list

三、用api测试工具测试

1.生成向量

POST http://localhost:11434/api/embeddings

请求demo

javascript 复制代码
{
  "model": "qwen:0.5b",
  "prompt": "洋芋 5斤 袋装"
}

2.问答判断

POST http://localhost:11434/api/generate

请求demo

javascript 复制代码
{
  "model": "qwen2:1.5b",
  "prompt": "你是个哲学程序员,请用一句话说明你对世界的认知",
  "stream": false
}
相关推荐
大数据无毛兽7 小时前
通义千问3-14B镜像使用指南:Ollama WebUI集成实操手册
大语言模型·通义千问·文本分析·qwen3
冬奇Lab8 小时前
RAG 系列(二):用 LangChain 搭建你的第一个 RAG Pipeline
人工智能·langchain·llm
薛定谔的猫36914 小时前
深度解析:大语言模型 (LLM) Agent 的架构与演进趋势
ai·llm·agent·技术趋势·artificial intelligence
han_14 小时前
一篇看懂国内外主流大模型:GPT、Claude、Gemini、DeepSeek、通义千问有什么区别?
前端·人工智能·llm
Flynt17 小时前
在K8s上部署vLLM的完整踩坑记录
llm
赵康18 小时前
智人曾经这样灭绝猛犸象:AI入侵与行业灭绝
ai·llm
abigale0319 小时前
LangChain:自定义模型・RAG 检索・Agent 原理笔记
langchain·llm·prompt·agent·rag·lcel
alwaysrun21 小时前
LLM发展历程与自注意力简介
人工智能·llm
GoAI21 小时前
《深入浅出Agent》:项目深度解析Autoresearch
人工智能·深度学习·大模型·llm·agent