本地ollama大模型速度慢的优化

我直接给你最致命、最有效的结论

你现在这个速度(38秒 130 tokens)= 完全没用到GPU,全靠CPU硬跑!

4060 8GB 正常应该是 30~50 tokens/秒 ,你现在只有 3~4 tokens/秒,差了10倍!


一、为什么这么卡?

你用的是:

复制代码
qwen2.5:latest

这个是 FP16 原版模型 = 13GB+

你的 4060 只有 8GB 显存装不下 → 全部丢给CPU → 巨卡


二、1 分钟立刻提速 10 倍(直接复制命令)

1. 换 4bit 量化模型(必须)

bash 复制代码
ollama pull qwen2.5:7b-q4_K_M

2. 强制 Ollama 用满 GPU

Windows PowerShell 执行:

powershell 复制代码
$env:OLLAMA_NUM_GPU=999
$env:OLLAMA_GPU_LAYERS=35
$env:OLLAMA_KEEP_ALIVE=-1

3. 重启服务

powershell 复制代码
pkill ollama
ollama serve

4. 测试速度

bash 复制代码
ollama run qwen2.5:7b-q4_K_M "你好"

正常结果:

  • 响应:1秒内
  • 速度:30~45 tokens/秒

三、你 API 调用必须改的模型名

不要用:

复制代码
qwen2.5:latest

要用:

复制代码
qwen2.5:7b-q4_K_M

四、我给你最终最优配置(4060 8GB 专用)

python 复制代码
from langchain_ollama import ChatOllama

llm = ChatOllama(
    model="qwen2.5:7b-q4_K_M",   # 必改
    num_ctx=2048,                 # 必小
    num_gpu=35,                   # 必开
    temperature=0.7
)

五、改完后预期速度

你现在:
38秒 = 130 tokens

改完后:
3~4秒 = 130 tokens
直接快 10 倍!


相关推荐
weixin_444012931 分钟前
CSS定位如何实现模态框垂直居中_使用负边距或transform
jvm·数据库·python
2301_783848656 分钟前
Go 中实现高效图最大团划分的实践与边界分析
jvm·数据库·python
2401_884454156 分钟前
C#怎么实现Socket心跳包 C#如何在TCP Socket通信中设计心跳机制检测连接状态【网络】
jvm·数据库·python
码力斜杠哥11 分钟前
Rust初习录(6)Rust的 if 玩法
开发语言·python·rust
Jetev19 分钟前
不同品牌SSD对HTML函数工具加载速度影响大吗_存储测试汇总【汇总】
jvm·数据库·python
gf132111132 分钟前
python_【更新已发送的消息卡片】
java·前端·python
keineahnung234538 分钟前
PyTorch SymNode 為何找不到方法實作?──sizes_strides_methods 動態安裝機制解析
人工智能·pytorch·python·深度学习
2501_9010064741 分钟前
golang如何使用DTM分布式事务框架_golang DTM分布式事务框架使用方法
jvm·数据库·python
2501_901200531 小时前
Golang如何做Clean Architecture_Golang整洁架构教程【详解】
jvm·数据库·python
weixin_459753941 小时前
Go 中嵌入类型字段在派生结构体字面量中的初始化规则详解
jvm·数据库·python