技术栈
vllm Qwen2.5-0.5B输出乱码解决办法 用-Instruct版本的
njsgcs
2026-01-25 14:14
我重新下过了,也改变量了,bfloat16改float16都没好
重新下-Instruct就行了
vllm
上一篇:
误差理论与测量平差基础笔记八
下一篇:
三维扫描数据如何与CAD软件无缝衔接?思看科技(SCANOLOGY/3DeVOK)的卓越解决方案
相关推荐
AI木马人
1 小时前
2.人工智能实战:大模型接口并发低、GPU利用率上不去?基于 vLLM 重构推理服务的完整工程方案
人工智能
·
transformer
·
vllm
AIDF2026
2 天前
我们看一份报告的时候主要看什么
运维
·
服务器
·
推理
·
vllm
张忠琳
2 天前
【vllm】(八)vLLM v1 Simple KV Offload — 系统级架构深度分析之二
ai
·
架构
·
vllm
一只独角兽
3 天前
DeepSeek-V4-Pro 部署实战指南:H100/H200/B200/B300/GB200/GB300 全硬件配置详解
自然语言处理
·
gru
·
transformer
·
vllm
张忠琳
3 天前
【vllm】(六)vLLM v1 Sample — 模块超深度分析之一
ai
·
架构
·
vllm
蛐蛐蛐
4 天前
在昇腾Atlas 300I Duo+openEuler上部署vLLM并进行推理的流程(一)
vllm
Anesthesia丶
5 天前
Qwen2.5-1.5b 模型部署与LORA训练笔记
pytorch
·
python
·
lora
·
llm
·
qwen
·
vllm
张忠琳
7 天前
【vllm】(五)vLLM v1 Attention — 模块超深度分析之五
ai
·
架构
·
vllm
张忠琳
7 天前
【vllm】(五)vLLM v1 Attention — 模块超深度分析之二
人工智能
·
深度学习
·
ai
·
架构
·
vllm
Zzj_tju
7 天前
大语言模型部署实战:从 Ollama、vLLM 到 SGLang,本地服务到底怎么搭?
人工智能
·
语言模型
·
自然语言处理
·
vllm
热门推荐
01
GitHub 镜像站点
02
2026年4月AI大事件深度解读:大模型竞争进入“深水区“
03
Codex 接入 DeepSeek API 完整配置文档
04
近期有什么ai的新消息,新动态? 2026.4月
05
【AI】2026 年具身智能模型和世界模型总结
06
2026年AI编程工具终极横评:Cursor vs Claude Code vs Copilot
07
实测可用|小米 MiMo 百万亿 Token 免费领,开发者速冲
08
在Windows 11上安装Docker的踩坑记录
09
裂开!ChatGPT 居然开始要手机号验证,附详细解决方法
10
零基础教你claude code 接入 deepseek V4