大模型微调之 在亚马逊AWS上实战LlaMA案例(三)
使用 QLoRA 增强语言模型:Amazon SageMaker 上 LLaMA 2 的高效微调
语言模型在自然语言处理任务中发挥着关键作用,但训练和微调大型模型可能会占用大量内存且耗时。在本文中,将深入研究一种在 Amazon SageMaker 上使用 QLoRA(量化感知低阶适配器调优)来微调语言模型的方法。具体来说,将集中精力微调 LLaMA 2-70B,这是 LLaMA 语言模型的一个变体,它提供了改进的性能,并支持更大的上下文长度窗口。通过利用 Hugging Face Transformers、Accelerate 和 PEFT,可以在语言任务上取得最先进的结果,同时减少内存需求。
运行以下命令安装必要的库:
python
!pip install "transformers==4.31.0" "datasets[s3]==2.13.0" sagemaker --upgrade --quiet
登录 Hugging Face 帐户以访问所需资源
python
!huggingface-cli login --token YOUR_TOKEN
如果计划在本地环境中使用 Amazon SageMaker,请确保你拥有具有必要权限的 IAM 角色。
加载和准备数据集📑:
在此示例中, 将使用 Databricks Dolly 数据集,其中包含由 Databricks 员工生成的指令跟踪记录。使用 Hugging Face Datasets 库加载数据集
python
from datasets import load_dataset
from random import randrange
# Load dataset from the hub
dataset = load_dataset("databricks/databricks-dolly-15k", split="train")
print(f"Dataset size: {len(dataset)}")
print(dataset[randrange(len(dataset))])
该数据集包括带有说明、上下文和响应的示例。 将使用格式化函数将组件组合成单个提示来格式化这些示例
python
def format_dolly(sample):
instruction = f"### Instruction\n{sample['instruction']}"
context = f"### Context\n{sample['context']}" if len(sample["context"]) > 0 else None
response = f"### Answer\n{sample['response']}"
prompt = "\n\n".join([i for i in [instruction, context, response] if i is not None])
return prompt
将使用 Hugging Face Transformers 库对数据集进行标记和分块,以实现高效训练:
python
from transformers import AutoTokenizer
model_id = "meta-llama/Llama-2-70b-hf"
tokenizer = AutoTokenizer.from_pretrained(model_id, use_auth_token=True)
tokenizer.pad_token = tokenizer.eos_token
在 Amazon SageMaker 上使用 QLoRA 微调 LLaMA 2-70B:
现在,大家可以深入研究微调过程。将利用 QLoRA(一种高效的微调技术)在 Amazon SageMaker 上训练 LLaMA 2-70B。为了实现这一点, 准备了一个名为 run_clm.py 的训练脚本,它使用 PEFT 实现 QLoRA 技术。
为了创建 SageMaker 训练作业, 将使用 HuggingFace Estimator,它处理端到端训练和部署任务。大家将定义超参数并使用必要的配置初始化估计器
python
import time
from sagemaker.huggingface import HuggingFace
from huggingface_hub import HfFolder
# Define Training Job Name
job_name = f'huggingface-qlora-{time.strftime("%Y-%m-%d-%H-%M-%S")}'
role = sagemaker.get_execution_role()
# Define hyperparameters for the training job
hyperparameters ={
'model_id': model_id,
'dataset_path': '/opt/ml/input/data/training',
'epochs': 3,
'per_device_train_batch_size': 2,
'lr': 2e-4,
'hf_token': HfFolder.get_token(),
'merge_weights': True,
}
# Create the HuggingFace Estimator
huggingface_estimator = HuggingFace(
entry_point='run_clm.py',
source_dir='scripts',
instance_type='ml.g5.4xlarge',
instance_count=1,
base_job_name=job_name,
role=role,
volume_size=300,
transformers_version='4.28',
pytorch_version='1.9.0',
py_version='py3',
hyperparameters=hyperparameters,
environment={"HUGGINGFACE_HUB_CACHE": "/tmp/.cache"},
)
# Define a data input dictionary with the uploaded S3 URIs
data = {'training': training_input_path}
# Start the training job
huggingface_estimator.fit(data, wait=True)
这段代码是用于在Amazon Web Services (AWS) 的机器学习服务平台Amazon SageMaker上创建和启动一个Hugging Face模型训练作业的Python脚本。以下是与AWS相关的代码的总体说明:
-
import time
导入Python的
time
模块,用于获取当前的时间,这将用于生成训练作业的名称。 -
from sagemaker.huggingface import HuggingFace
从
sagemaker
库中导入HuggingFace
类。sagemaker
是AWS提供的一个模块,用于与SageMaker服务进行交互。 -
from huggingface_hub import HfFolder
从
huggingface_hub
模块导入HfFolder
类,该模块用于与Hugging Face模型仓库交互。 -
job_name = f'huggingface-qlora-{time.strftime("%Y-%m-%d-%H-%M-%S")}'
创建一个格式化的字符串,用于定义训练作业的名称。名称中包含了当前的日期和时间,确保每次运行时作业名称的唯一性。
-
role = sagemaker.get_execution_role()
调用
sagemaker
模块的get_execution_role()
函数来获取当前环境的执行角色。这个IAM角色将被赋予SageMaker训练作业所需的权限。
6-15. hyperparameters = {...}
定义一个字典,包含了训练作业的超参数。这些参数将传递给训练脚本,用于调整模型训练过程。
16-28. huggingface_estimator = HuggingFace(...)
实例化HuggingFace
类,创建一个Hugging Face模型训练的估计器对象。该对象包含了训练作业的所有配置信息:
entry_point
: 训练脚本的文件名。source_dir
: 包含训练脚本和相关文件的目录。instance_type
: 训练时使用的AWS实例类型。instance_count
: 训练时使用的实例数量。base_job_name
: 训练作业的基础名称。role
: 用于训练作业的IAM角色。volume_size
: 实例的EBS卷大小。transformers_version
,pytorch_version
,py_version
: 分别指定了transformers库、PyTorch框架和Python解释器的版本。hyperparameters
: 传递给训练脚本的超参数字典。environment
: 设置环境变量,这里指定了Hugging Face Hub的缓存路径。
29-30. data = {'training': training_input_path}
定义一个字典,用于指定训练数据的位置。training_input_path
应该是一个S3 URI,指向存储在Amazon S3上的训练数据。
huggingface_estimator.fit(data, wait=True)
调用fit
方法启动训练作业。data
参数指定了训练数据的位置,wait=True
参数表示脚本将等待训练作业完成。
这段代码展示了如何使用AWS的SageMaker服务和Hugging Face的库来训练机器学习模型。它利用了AWS的云基础设施和Hugging Face的预训练模型和工具来执行训练任务。
在 Amazon SageMaker 上部署微调的 LLM 2-70B:
微调过程完成后, 可以在 Amazon SageMaker 上部署微调后的 LLaMA 2-70B 模型进行推理。按着这些次序:
通过创建 HuggingFace 模型类来准备部署模型:
python
from sagemaker.huggingface import HuggingFaceModel
# Create the HuggingFace Model class
huggingface_model = HuggingFaceModel(
model_data=huggingface_estimator.model_data,
role=role,
transformers_version='4.28',
pytorch_version='1.9.0',
py_version='py3',
)
这段代码是用于在Amazon Web Services (AWS) 的机器学习服务平台Amazon SageMaker上创建一个Hugging Face模型的Python脚本。以下是与AWS相关的代码的总体说明:
from sagemaker.huggingface import HuggingFaceModel
从sagemaker.huggingface
模块导入HuggingFaceModel
类。sagemaker
是AWS提供的一个模块,用于与SageMaker服务进行交互,而HuggingFaceModel
类是用于创建和管理Hugging Face模型对象的。
2-7. huggingface_model = HuggingFaceModel( ... )
实例化HuggingFaceModel
类,创建一个Hugging Face模型对象。这个对象包含了加载和部署Hugging Face模型所需的配置信息:
model_data
: 这是指向模型数据的位置的URI,通常是在Amazon S3上的一个路径。huggingface_estimator.model_data
是先前训练过程中生成的模型数据, 是一个指向S3上模型文件位置的URI。role
: 这是用于模型的AWS Identity and Access Management (IAM) 角色。此角色需要有权限访问S3上的模型数据以及其他任何需要的AWS资源。transformers_version
: 指定了Hugging Face的transformers
库的版本,这里是'4.28'。这个版本需要与训练模型时使用的版本相匹配。pytorch_version
: 指定了PyTorch框架的版本,这里是'1.9.0'。模型需要与特定版本的PyTorch兼容。py_version
: 指定了Python解释器的版本,这里是'py3',表示使用Python 3。
通过创建HuggingFaceModel
对象,你可以在SageMaker上部署Hugging Face模型,以便进行推断(inference)。这个对象可以用于创建SageMaker的Endpoint,从而允许应用程序通过这个端点发送数据并接收模型推断结果。
使用 HuggingFace 模型类将模型部署到 SageMaker 端点:
python
# Deploy the model to a SageMaker endpoint
predictor = huggingface_model.deploy(
initial_instance_count=1,
instance_type='ml.m5.large',
)
这段代码是用于在Amazon Web Services (AWS) 的机器学习服务平台Amazon SageMaker上部署一个训练好的Hugging Face模型,并创建一个可用于进行实时预测的端点(endpoint)。以下是与AWS相关的代码的详细说明:
-
predictor = huggingface_model.deploy( ... )
调用
HuggingFaceModel
对象的deploy
方法来部署模型。这会创建一个SageMaker端点,该端点可以接收输入数据,使用部署的模型进行推断,并返回预测结果。 -
initial_instance_count=1
此参数指定了要使用的初始实例数量。在这个例子中,设置为1意味着将启动一个实例来响应预测请求。根据预测负载的需求,可以调整此值以扩展或缩减实例数量。
-
instance_type='ml.m5.large'
此参数指定了用于部署模型的EC2实例的类型。在这个例子中,选择了
ml.m5.large
,这是SageMaker提供的计算优化型实例之一,适合运行机器学习工作负载。实例类型可以根据模型的计算需求和预算进行选择。
部署完成后,predictor
对象将代表SageMaker端点,可以通过它来执行预测。通常,这个端点可以被任何可以发送HTTP请求的客户端访问,使得模型的推断服务可以集成到不同的应用程序中。
此外,部署模型到SageMaker端点还涉及一些成本,因为AWS会根据实例的使用时间和存储的数据量来收费。因此,在部署模型时,需要考虑这些因素以优化成本。
需要注意的是,这段代码假定huggingface_model
是之前创建的HuggingFaceModel
对象,且已经包含了所有必要的配置信息,如模型数据、IAM角色、依赖库版本等。此外,还需要确保所使用的IAM角色具有创建和操作SageMaker端点所需的权限。
通过发送输入文本和接收预测,利用部署的模型进行推理:
python
# Perform inference using the deployed model
input_text = "What is the meaning of life?"
response = predictor.predict(input_text)
print(response)
本文 探索了一种在 Amazon SageMaker 上使用 QLoRA 微调语言模型的有效方法。通过利用 Hugging Face Transformers、Accelerate 和 PEFT 的强大功能, 在降低内存需求的同时提高了性能。使用 QLoRA 微调 LLaMA 2-70B 能够在语言任务上取得最先进的结果,同时减少训练时间和成本💰。体验一下,释放微调大型语言模型的潜力!
大模型技术分享
《企业级生成式人工智能LLM大模型技术、算法及案例实战》线上高级研修讲座
模块一:Generative AI 原理本质、技术内核及工程实践周期详解
模块二:工业级 Prompting 技术内幕及端到端的基于LLM 的会议助理实战
模块三:三大 Llama 2 模型详解及实战构建安全可靠的智能对话系统
模块四:生产环境下 GenAI/LLMs 的五大核心问题及构建健壮的应用实战
模块五:大模型应用开发技术:Agentic-based 应用技术及案例实战
模块六:LLM 大模型微调及模型 Quantization 技术及案例实战
模块七:大模型高效微调 PEFT 算法、技术、流程及代码实战进阶
模块八:LLM 模型对齐技术、流程及进行文本Toxicity 分析实战
模块九:构建安全的 GenAI/LLMs 核心技术Red Teaming 解密实战
模块十:构建可信赖的企业私有安全大模型Responsible AI 实战
Llama3关键技术深度解析与构建Responsible AI、算法及开发落地实战
1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。他们将详细了解Llama 3的五大技术分支及工具,以及如何在AWS上实战Llama指令微调的案例。
2、解密Llama 3 Foundation Model模型结构特色技术及代码实现:深入了解Llama 3中的各种技术,比如Tiktokenizer、KV Cache、Grouped Multi-Query Attention等。通过项目二逐行剖析Llama 3的源码,加深对技术的理解。
3、解密Llama 3 Foundation Model模型结构核心技术及代码实现:SwiGLU Activation Function、FeedForward Block、Encoder Block等。通过项目三学习Llama 3的推理及Inferencing代码,加强对技术的实践理解。
4、基于LangGraph on Llama 3构建Responsible AI实战体验:通过项目四在Llama 3上实战基于LangGraph的Responsible AI项目。他们将了解到LangGraph的三大核心组件、运行机制和流程步骤,从而加强对Responsible AI的实践能力。
5、Llama模型家族构建技术构建安全可信赖企业级AI应用内幕详解:深入了解构建安全可靠的企业级AI应用所需的关键技术,比如Code Llama、Llama Guard等。项目五实战构建安全可靠的对话智能项目升级版,加强对安全性的实践理解。
6、Llama模型家族Fine-tuning技术与算法实战:学员将学习Fine-tuning技术与算法,比如Supervised Fine-Tuning(SFT)、Reward Model技术、PPO算法、DPO算法等。项目六动手实现PPO及DPO算法,加强对算法的理解和应用能力。
7、Llama模型家族基于AI反馈的强化学习技术解密:深入学习Llama模型家族基于AI反馈的强化学习技术,比如RLAIF和RLHF。项目七实战基于RLAIF的Constitutional AI。
8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。
9、Llama模型家族Safety设计与实现:在这个模块中,学员将学习Llama模型家族的Safety设计与实现,比如Safety in Pretraining、Safety Fine-Tuning等。构建安全可靠的GenAI/LLMs项目开发。
10、Llama 3构建可信赖的企业私有安全大模型Responsible AI系统:构建可信赖的企业私有安全大模型Responsible AI系统,掌握Llama 3的Constitutional AI、Red Teaming。
解码Sora架构、技术及应用
一、为何Sora通往AGI道路的里程碑?
1,探索从大规模语言模型(LLM)到大规模视觉模型(LVM)的关键转变,揭示其在实现通用人工智能(AGI)中的作用。
2,展示Visual Data和Text Data结合的成功案例,解析Sora在此过程中扮演的关键角色。
3,详细介绍Sora如何依据文本指令生成具有三维一致性(3D consistency)的视频内容。 4,解析Sora如何根据图像或视频生成高保真内容的技术路径。
5,探讨Sora在不同应用场景中的实践价值及其面临的挑战和局限性。
二、解码Sora架构原理
1,DiT (Diffusion Transformer)架构详解
2,DiT是如何帮助Sora实现Consistent、Realistic、Imaginative视频内容的?
3,探讨为何选用Transformer作为Diffusion的核心网络,而非技术如U-Net。
4,DiT的Patchification原理及流程,揭示其在处理视频和图像数据中的重要性。
5,Conditional Diffusion过程详解,及其在内容生成过程中的作用。
三、解码Sora关键技术解密
1,Sora如何利用Transformer和Diffusion技术理解物体间的互动,及其对模拟复杂互动场景的重要性。
2,为何说Space-time patches是Sora技术的核心,及其对视频生成能力的提升作用。
3,Spacetime latent patches详解,探讨其在视频压缩和生成中的关键角色。
4,Sora Simulator如何利用Space-time patches构建digital和physical世界,及其对模拟真实世界变化的能力。
5,Sora如何实现faithfully按照用户输入文本而生成内容,探讨背后的技术与创新。
6,Sora为何依据abstract concept而不是依据具体的pixels进行内容生成,及其对模型生成质量与多样性的影响。