【vLLM 学习】Reproduciblity

vLLM 是一款专为大语言模型推理加速而设计的框架,实现了 KV 缓存内存几乎零浪费,解决了内存管理瓶颈问题。

更多 vLLM 中文文档及教程可访问 →vllm.hyper.ai/

*在线运行 vLLM 入门教程:零基础分步指南

源码 examples/offline_inference/reproduciblity.py

bash 复制代码
# SPDX-License-Identifier: Apache-2.0
import os

from vllm import LLM, SamplingParams

# 为了性能考虑,vllm 不能保证结果的默认情况下可重复性,
# 您需要做以下事情才能实现
# 可复现结果:
# 1.关闭多处理以使计划确定性。
# Note (Woosuk) :这是不需要的,对于 V0而言,这将被忽略。
os.environ["VLLM_ENABLE_V1_MULTIPROCESSING"] = "0"
# 2.修复五十年据种子以获得可重复性。默认种子为 None,不可复现。
SEED = 42


# Note (Woosuk) :即使使用上述两个设置,vLLM 也仅提供
# 当它在相同的硬件和相同的 vLLM 版本上运行时,它的可重复性。
# 此外,在线服务 API ( "vLLM 服务") 不支持可重复性
# 因为几乎不可能在在线服务设置。

llm = LLM(model="facebook/opt-125m", seed=SEED)

prompts = [
    "Hello, my name is",
    "The president of the United States is",
    "The capital of France is",
    "The future of AI is",
]
sampling_params = SamplingParams(temperature=0.8, top_p=0.95)

outputs = llm.generate(prompts, sampling_params)
for output in outputs:
    prompt = output.prompt
    generated_text = output.outputs[0].text
    print(f"Prompt: {prompt!r}, Generated text: {generated_text!r}")
相关推荐
人工智能AI技术8 分钟前
DeskClaw Windows上线|C#开发AI桌面助手,轻量内核源码解析
人工智能·c#
璞华Purvar8 分钟前
园区运营管理系统是什么?如何实现园区全业务精细化数字化管理?(2026年)
大数据·人工智能
zzh9407715 分钟前
2026年实测:Genmini 3.0使用AI联网搜索功能全攻略
人工智能
田里的水稻22 分钟前
EI_openclaw_UI交互
人工智能·ui·机器人
>ᴗoಣ29 分钟前
Exploring Persona Sentiment Sensitivity in Personalized Dialogue Generation
人工智能
大数据AI人工智能培训专家培训讲师叶梓30 分钟前
120B 数学语料 + GRPO 算法,DeepSeekMath 刷新开源大模型推理天花板
人工智能·算法·大模型·推理·deepseek·openclaw·openclaw 讲师
智算菩萨33 分钟前
多目标超启发式算法系统文献综述:人机协同大语言模型方法论深度精读
论文阅读·人工智能·深度学习·ai·多目标·综述
兮℡檬,40 分钟前
银行卡卡号识别
人工智能·计算机视觉
海南java第二人41 分钟前
Cursor 高级实战:从 Spring Boot 到微服务,AI 驱动的全流程开发指南
人工智能·spring boot·微服务
梦..43 分钟前
Allegro学习记录(一)
arm开发·单片机·嵌入式硬件·学习·硬件架构·硬件工程·pcb工艺