vllm的使用方式,入门教程

vLLM是一个由伯克利大学LMSYS组织开源的大语言模型推理框架,旨在提升实时场景下的大语言模型服务的吞吐与内存使用效率。以下是详细的vLLM使用方式和入门教程:

1. 前期准备

在开始使用vLLM之前,建议先掌握一些基础知识,包括操作系统原理、网络编程、数据库管理等。这些知识有助于理解vLLM的工作机制,并为后续深入学习奠定基础。

2. 安装vLLM

2.1 环境配置
  • 操作系统:Linux或Windows(推荐Linux)
  • Python版本:3.8及以上
  • CUDA版本:7.0及以上(推荐12.1)
  • GPU:至少7.0计算能力的GPU(如V100、T4、RTX40xx、A100、L4、H100等)
2.2 安装步骤
  1. 创建conda环境(可选):
bash 复制代码
   conda create --name myenv python=3.9 -y
   conda activate myenv
  1. 安装vLLM
bash 复制代码
   pip install vllm
  1. 检查CUDA版本
bash 复制代码
   nvcc --version
  1. 验证安装
    运行以下命令检查vLLM是否安装成功:
python 复制代码
   import vllm
   print(vllm.__version__)

3. 启动vLLM服务器

3.1 启动本地服务器

使用以下命令启动vLLM服务器:

bash 复制代码
python -m vllm.entrypoints.openai_server --model lmsys/vicuna-7b-v1.3 --server-kind local

此命令会启动一个本地服务器,监听指定的模型和端口。

3.2 启动云平台服务器

如果使用OpenBayes云平台,可以直接在平台上操作,跳过本地安装步骤。具体步骤如下:

  1. 登录OpenBayes平台。
  2. 在"公共教程"中选择"vLLM 入门零基础分步指南"教程。
  3. 克隆教程到自己的容器中。
  4. 按照教程中的步骤进行操作。

4. 发出请求

4.1 使用Python代码发送请求
python 复制代码
import vllm

prompts = ["Hello, my name is", "The capital of France is"]
model = vllm.LLM(model="lmsys/vicuna-7b-v1.3")
outputs = model.generate(prompts)

for output in outputs:
    print(output.text)

此代码会生成指定提示词的文本输出。

4.2 使用OpenAI API兼容方式

vLLM支持与OpenAI API兼容的查询格式,可以通过以下命令启动服务:

bash 复制代码
python - m vllm.entrypoints.openai_server --model lmsys/vicuna-7b-v1.3 --server-kind openai

然后使用Python请求库或OpenAI客户端向vLLM服务器发送请求,获取模型输出。

5. 安全设置

默认情况下,vLLM服务器没有身份验证。为了安全起见,建议设置API密钥,并在请求中包含该密钥。

6. 高级特性

6.1 PagedAttention

vLLM采用了全新的注意力算法「PagedAttention」,有效管理注意力键和值,提升了吞吐量和内存使用效率。PagedAttention使得vLLM在吞吐量上比HuggingFace Transformers高出24倍,文本生成推理(TGI)高出3.5倍。

6.2 连续批处理输入请求

vLLM支持连续批处理输入请求,进一步优化了推理性能。

6.3 模型微调与优化

vLLM支持模型微调和优化,包括量化、剪枝等技术,以减少运行模型所需的内存空间。

7. 实践案例

通过实际案例加深理解:

  1. 本地部署:在本地环境中安装和运行vLLM,测试不同模型的性能。
  2. 云平台部署:在OpenBayes等云平台上部署vLLM,体验云原生环境下的高效推理。
  3. 集成应用:将vLLM与Hugging Face模型无缝集成,开发个性化的大语言模型应用。

8. 总结

vLLM是一个强大且易于使用的推理框架,适用于多种场景。通过上述步骤,您可以快速上手并开始使用vLLM进行大语言模型推理。如果遇到问题,可以参考官方文档或社区资源进行解决。

vLLM支持多种模型微调和优化技术,具体包括以下几种:

  1. 全参数微调(Full-Parameter Fine-Tuning)

    • vLLM支持对预训练模型进行全参数微调,以适应特定任务或数据集。这种方法通过调整所有模型参数来优化性能,适用于需要大量数据和计算资源的场景。
  2. LoRA(Low-Rank Adaptation)

    • LoRA是一种高效、快速且参数效率高的微调方法,特别适用于资源有限的环境,如移动应用或边缘设备。LoRA通过矩阵降维技术更新模型权重,显著提高内存和计算效率,减少参数数量。
  3. 量化(Quantization)

    • vLLM支持多种量化技术,包括GPTQ、AWQ、SqueezeLLM和FP8 KV缓存。这些技术通过将模型参数转换为低精度数据类型(如8位或4位)来减少内存使用和加快计算速度。
  4. Paged Attention

    • vLLM采用Paged Attention技术,有效管理KV Cache内存,支持动态批处理请求,优化CUDA内核以充分利用GPU计算能力。
  5. 混合精度训练(Mixed Precision Training)

    • vLLM支持混合精度训练,通过使用半精度(FP16)和浮点(FP32)模型加速训练过程,同时保持较高的计算效率。
  6. 多模态支持

    • vLLM支持多模态输入,可以处理文本和图像等多模态数据。例如,MiniCPM-V模型可以在vLLM框架下进行微调,以适应视觉语言任务。
  7. 指令微调(Instruction Tuning)

    • vLLM支持指令微调,通过调整模型以更好地理解和执行特定的指令。这种方法在自然语言处理任务中非常有效。
  8. 前缀微调(Prefix Tuning)

    • 前缀微调是一种通过添加固定长度的前缀向量来调整模型的方法,适用于需要快速适应新任务的场景。
  9. 提示微调(Prompt Tuning)

    • 提示微调通过调整输入提示来优化模型的响应能力,适用于对话系统和其他需要灵活生成文本的任务。
  10. 混合专家(MoE, Mixture of Experts)

  • vLLM支持混合专家模型,通过将模型分解为多个专家模块,每个模块处理特定类型的输入,从而提高模型的性能和效率。
  1. 多卡部署和GPU+CPU混合部署
  • vLLM支持多卡部署和GPU+CPU混合部署,以充分利用硬件资源,提高推理速度和吞吐量。
  1. 流式输出(Streaming Output)
  • vLLM支持流式输出,适用于实时文本处理场景,可以连续处理接收到的请求,而不需要一次性加载所有数据。
  1. 兼容性与集成
  • vLLM与Hugging Face模型无缝集成,支持多种解码算法和分布式推理,兼容OpenAI API服务器接口。

vLLM通过多种微调和优化技术,提供了高效、灵活且强大的模型推理和服务能力,适用于各种应用场景。

在实际应用中,最常用于vLLM的微调技术是LoRA(Low-Rank Adaptation)。LoRA是一种参数高效微调(PEFT)方法,通过训练小型调整器来适应特定任务,从而显著减少计算资源和内存需求,同时保持模型质量。

LoRA微调技术的优势在于其高效性和灵活性。它允许在少量参数的情况下进行微调,这使得它特别适合于资源受限的环境和大规模模型的部署。例如,LoRA可以将大型基础模型的参数减少到原始模型的1%左右,同时在推理阶段共享基础模型的权重,从而实现高效的推理和部署。

LoRA微调技术还被广泛应用于多种场景,包括视觉语言模型(VLM)的安全性改进、多模态任务的优化以及特定领域的模型定制。例如,在安全性改进方面,通过LoRA微调可以显著提高视觉语言模型的安全性。在多模态任务中,LoRA也被用于优化视觉问答(VQA)任务的性能。

LoRA微调技术因其高效性、灵活性和广泛的应用场景,成为实际应用中最常用于vLLM的微调技术。

相关推荐
AI大模型系统化学习6 小时前
Excel MCP: 自动读取、提炼、分析Excel数据并生成可视化图表和分析报告
人工智能·ai·大模型·ai大模型·大模型学习·大模型入门·mcp
老翅寒暑9 小时前
AI模型的回调能力的理解和实现
ai·大模型·本地小模型
Mr.小海16 小时前
重排序模型解读 mxbai-rerank-base-v2 强大的重排序模型
大模型
大模型铲屎官19 小时前
【Python-Day 14】玩转Python字典(上篇):从零开始学习创建、访问与操作
开发语言·人工智能·pytorch·python·深度学习·大模型·字典
玩电脑的辣条哥20 小时前
模型量化AWQ和GPTQ哪种效果好?
大模型·模型量化·gptq·awq
奔跑中的小象1 天前
基于 nvitop+Prometheus+Grafana 的物理资源与 VLLM 引擎服务监控方案
grafana·prometheus·vllm·nvitop
Panesle2 天前
阿里开源通义万相Wan2.1-VACE-14B:用于视频创建和编辑的一体化模型
人工智能·开源·大模型·文生视频·多模态·生成模型
幸福清风3 天前
【Liblib】基于LiblibAI自定义模型,总结一下Python开发步骤
ai·大模型·图片·liblib
云边有个稻草人3 天前
GpuGeek:为创新者提供灵活、快速、高效的云计算服务!
人工智能·大模型·算力·gpugeek平台·qwen3-32b
CM莫问3 天前
<论文>(微软)避免推荐域外物品:基于LLM的受限生成式推荐
人工智能·算法·大模型·推荐算法·受限生成