vLLM代码推理Qwen2-VL多模态

由于近期代码微调以及测试都是在远程服务器上,因此LLamafactory-cli webui 以及vLLM的ui均无法使用,因此不断寻求解决方案,我提供一个解决方案,LLamafactory微调完成的模型需要合并为一个完整模型后再使用vLLM进行代码推理测试微调模型的结果。

由于chat启动的终端互动模式均无法上传图像进行交互,因此需要代码或者参数来上传图像进行理解。

Vision Language --- vLLM

这个链接里有vLLM支持的多模态大模型不同的函数对prompt的处理

我在这里提供一个使用vLLM对Qwen2-VL的多模态图像理解的python代码

python 复制代码
from vllm import LLM, SamplingParams
from PIL import Image

def run_qwen2_vl(questions: str, image_path: str):
    # 模型初始化配置
    llm = LLM(
        model="Qwen/Qwen2-VL-Lora_Sft",
        max_model_len=4096,
        max_num_seqs=5,
        dtype="half"
    )

    # 多模态数据加载
    image = Image.open(image_path)
    question = "What is the content of this image?"
    # 提示词构造
    prompt_template = [(
        "<|im_start|>system\nYou are a helpful assistant.<|im_end|>\n"
        "<|im_start|>user\n<|vision_start|><|image_pad|><|vision_end|>"
        f"{question}<|im_end|>\n"
        "<|im_start|>assistant\n") for question in questions]
    print(prompt_template[0])
    sampling_params = SamplingParams(
        max_tokens=1024,
        temperature=0.8,
        top_p=0.95,
        frequency_penalty=0.2,
        presence_penalty=0.3,
        stop=["<|im_end|>"]
    )
    # 生成请求
    outputs = llm.generate({
    "prompt": prompt_template[0],
    "multi_modal_data": {"image": image},
    }, sampling_params=sampling_params)

    # 结果解析
    return [output.outputs[0].text for output in outputs]

# 使用示例
if __name__ == "__main__":
    response = run_qwen2_vl(
        questions=["请使用中文描述下这个图像并给出中文诊断结果"],
        image_path="aaaa.jpg"
    )
    print("模型输出:", response[0])
相关推荐
threelab几秒前
Three.js 概率统计可视化 | 三维可视化 / AI 提示词
开发语言·javascript·人工智能
TG_yunshuguoji1 分钟前
阿里云代理商:阿里云百炼部署的deepseek v4怎么使用?
服务器·人工智能·阿里云·云计算·ai智能体·deepseek v4
Raink老师7 分钟前
【AI面试临阵磨枪-52】LLM 服务高并发、高可用设计:负载均衡、池化、扩容、容错
人工智能·ai 面试
Raink老师10 分钟前
【AI面试临阵磨枪-53】AI 应用成本优化:模型选型、Token 控制、缓存、异步、轻量降级
人工智能·ai 面试
百家方案11 分钟前
2026年AI+智慧网格全场景应用解决方案白皮书
人工智能·智慧城市·智慧网格·ai+智慧网格·智慧网格白皮书·智慧网格解决方案·智慧网格技术架构
Cosolar14 分钟前
大模型应用开发面试 • 每日三题|Day 002|记忆(Memory)、工具使用(Tool Use)和微调(Fine-tuning)
后端·python·llm
陈天伟教授16 分钟前
下行周期生存之道 = 低风险试错 × 即时反馈 × 长期复购
人工智能
Haibakeji16 分钟前
长沙定制开发本地生活APP打造城市便民消费场景
大数据·人工智能·生活
星纬智联技术16 分钟前
GEO内容不被AI引用?先摸清搜索引擎的“可信度验证”标准
人工智能·aigc·geo
Carl_奕然17 分钟前
【智能体】Agent的四种设计模式之:Plan-and-Execute
人工智能·python·设计模式