第八十四篇-V100-32G+Easyclaw+Ollama+Qwopus3.5-27B-V3

环境

bash 复制代码
系统:CentOS-7
CPU : E5-2680V4 14核28线程
内存:DDR4 2133 32G * 2
显卡:Tesla V100-32G【PG503】 (水冷)
驱动: 535
CUDA: 12.2

下载

https://modelscope.cn/models/Jackrong/Qwopus3.5-27B-v3-GGUF

Ollama配置MF

clike 复制代码
FROM /models/Qwopus3.5-27B/Qwopus3.5-27B-v3-Q4_K_M.gguf

# --------------------------------------------------------------------------
# 🎯 CHAT TEMPLATE (Qwen3.5 Compatible)
# --------------------------------------------------------------------------
TEMPLATE """{{- if .System }}<|im_start|>system
{{ .System }}<|im_end|>
{{ end }}{{- range .Messages }}
{{- if eq .Role "user" }}<|im_start|>user
{{ .Content }}<|im_end|>
{{- else if eq .Role "assistant" }}<|im_start|>assistant
{{ .Content }}<|im_end|>
{{- end }}
{{- end }}<|im_start|>assistant
"""

SYSTEM """You are Qwopus3.5-27B-v3, an advanced AI assistant optimized for NVIDIA V100 32GB.
- Provide accurate, concise, and well-structured responses
- Use chain-of-thought reasoning for complex tasks
- Support multilingual input but default to user's language
- Decline harmful requests politely but firmly"""

# --------------------------------------------------------------------------
# ⚙️ HARDWARE OPTIMIZATION (V100-32GB CRITICAL)
# --------------------------------------------------------------------------

# ✓ 修正: Context 设为 4096 (平衡速度与显存),可按需调整
PARAMETER num_ctx 64096

# ✓ 批处理大小: 提升推理吞吐量 (显存允许下尽量大)
PARAMETER num_batch 512

# ✓ GPU 层数: 99 层全卸载,若 OOM 则降至 85-90
PARAMETER num_gpu 99

# ✓ CPU 线程: 匹配物理核心数,避免超线程开销
PARAMETER num_thread 8

# ✓ 内存映射: 加速加载,允许 swap 缓冲
PARAMETER use_mmap true

# ✓ (可选) 低显存模式: 若频繁 OOM 可启用
# PARAMETER low_vram true

# --------------------------------------------------------------------------
# 🎲 SAMPLING PARAMETERS (Balanced Quality/Speed)
# --------------------------------------------------------------------------
PARAMETER temperature 0.7
PARAMETER top_p 0.9
PARAMETER top_k 40
PARAMETER min_p 0.05
PARAMETER repeat_penalty 1.1
PARAMETER typical_p 0.9
PARAMETER presence_penalty 0.0
PARAMETER frequency_penalty 0.0

# --------------------------------------------------------------------------
# 🛑 OUTPUT CONTROL & STOP SEQUENCES
# --------------------------------------------------------------------------
# 标准 Qwen3.5 stop tokens
PARAMETER stop "<|im_end|>"
PARAMETER stop "<|im_start|>"
PARAMETER stop "<|user|>"
PARAMETER stop "<|assistant|>"
PARAMETER stop "<|system|>"
PARAMETER stop "</s>"

# 对话连贯性控制
PARAMETER num_keep 512

运行

clike 复制代码
ollama create Qwopus3.5-27B-V3 -f Modelfile

验证模型

clike 复制代码
http://192.168.1.222:11434/v1/models

下载Easyclaw

clike 复制代码
https://easyclaw.cn/

安装

clike 复制代码
windows下正常下一步安装

启动

配置Ollama本地模型


开始使用

可以正常使用了,速度还可以

相关推荐
AI袋鼠帝2 分钟前
企微又偷偷进化AI,并开始不对劲了..
人工智能
工业机器人销售服务7 分钟前
2026 年,探索专业伯朗特机器人的奇妙世界
人工智能·机器人
摆烂大大王13 分钟前
AI 日报|2026年5月9日:四部门力推AI与能源双向赋能,AI终端国标出台,中国大模型融资潮涌
人工智能
萑澈19 分钟前
编程能力强和多模态模型的模型后训练
人工智能·深度学习·机器学习
LaughingZhu24 分钟前
Product Hunt 每日热榜 | 2026-05-08
人工智能·经验分享·深度学习·神经网络·产品运营
AI袋鼠帝28 分钟前
体验完Trae送的AI硬件,有点上头..
人工智能
冬奇Lab1 小时前
RAG 系列(十三):查询优化——让问题问得更好
人工智能·llm
上海云盾第一敬业销售1 小时前
大模型驱动的网络攻击:AI对抗AI,智能WAF的进化之路
人工智能
冬奇Lab1 小时前
企业引入 AI 之后,为什么提效不明显?
人工智能·aigc
冬奇Lab1 小时前
一天一个开源项目(第98篇):UI-TARS-Desktop - 字节跳动开源的多模态 GUI 代理栈
人工智能·开源·资讯