跑大模型的经验

LLama2:

  1. 使用torchrun来跑:

    torchrun --nproc_per_node 1 example_text_completion.py
    --ckpt_dir llama-2-7b/
    --tokenizer_path tokenizer.model
    --max_seq_len 128 --max_batch_size 4

关于集群分布式torchrun命令踩坑记录(自用)-CSDN博客

  1. 显存不够:

减小max_seq_len(生成的最大程度);减小max_batch_size;

  1. MP

模型的分片数量是多少,则MP(Model Parallel)就是多少,--nproc_per_node必须设成多少(设多或设少会报错);

分片格式样例:consolidated.07.pth

  1. chat模型和base模型:

使用chat_completion调用chat模型时,格式是每条一句话,有role字段(system, user, assistant); llama代码内部用这些字段拼接成了input prompt;

使用text_completion调用base模型时,就只输入一个input prompt字符串;

SFT:

可使用transformer的trl库的SFTTrainer类,来做SFT微调训练。

Fine-Tuning LLaMA 2: A Step-by-Step Guide to Customizing the Large Language Model | DataCamp

速度更快的Megatron? DeepSpeed?

相关推荐
Jmayday1 小时前
大模型常用词汇总结
语言模型
小陈phd3 小时前
多模态大模型学习笔记(二十五)—— 核心技术篇② | 虚拟人的大脑:国内头部大语言模型全解析
笔记·学习·语言模型
jkyy20144 小时前
家庭智能饮食健康:智能冰箱联动健康数据,实现个性化饮食指导
人工智能·语言模型·自动化·健康医疗
摸鱼仙人~1 天前
拆解 Qwen2.5-7B:从结构打印看懂大语言模型的设计细节
人工智能·语言模型·自然语言处理
摸鱼仙人~1 天前
拆解 Llama 3.1 8B:从模型结构看懂大语言模型的核心设计
人工智能·语言模型·llama
imliuyu1 天前
gpu and data is all you need —— 记一次 qwen3.5 的思维链微调
语言模型·qwen3.5
小超同学你好1 天前
Langgragh 19. Skills 4. SkillToolset 式设计 —— 工具化按需加载的 Skills(含代码示例)
人工智能·语言模型·langchain
Mr.Cheng.1 天前
TOWARDS INTERPRETING VISUAL INFORMATIONPROCESSING IN VISION-LANGUAGE MODELS
人工智能·语言模型·自然语言处理
绒绒毛毛雨1 天前
On the Plasticity and Stability for Post-Training Large Language Models
人工智能·机器学习·语言模型
Timer@2 天前
LangChain 教程 01|概述:AI 应用开发的新范式
人工智能·语言模型·langchain·前端框架