跑大模型的经验

LLama2:

  1. 使用torchrun来跑:

    torchrun --nproc_per_node 1 example_text_completion.py
    --ckpt_dir llama-2-7b/
    --tokenizer_path tokenizer.model
    --max_seq_len 128 --max_batch_size 4

关于集群分布式torchrun命令踩坑记录(自用)-CSDN博客

  1. 显存不够:

减小max_seq_len(生成的最大程度);减小max_batch_size;

  1. MP

模型的分片数量是多少,则MP(Model Parallel)就是多少,--nproc_per_node必须设成多少(设多或设少会报错);

分片格式样例:consolidated.07.pth

  1. chat模型和base模型:

使用chat_completion调用chat模型时,格式是每条一句话,有role字段(system, user, assistant); llama代码内部用这些字段拼接成了input prompt;

使用text_completion调用base模型时,就只输入一个input prompt字符串;

SFT:

可使用transformer的trl库的SFTTrainer类,来做SFT微调训练。

Fine-Tuning LLaMA 2: A Step-by-Step Guide to Customizing the Large Language Model | DataCamp

速度更快的Megatron? DeepSpeed?

相关推荐
武汉庞小锋3 小时前
gemma3开始干活了
语言模型
梦想画家18 小时前
2026开年大模型最新对比解析及场景落地指南
语言模型·大模型
Loo国昌21 小时前
【AI应用开发实战】05_GraphRAG:知识图谱增强检索实战
人工智能·后端·python·语言模型·自然语言处理·金融·知识图谱
lisw051 天前
双重过程理论与大型语言模型中的决策!
人工智能·语言模型·自然语言处理
nudt_qxx1 天前
讲透Transformer(二):深入解析Embedding
语言模型·transformer·embedding
大模型任我行1 天前
谷歌:预训练到微调的知识迁移规律
人工智能·语言模型·自然语言处理·论文笔记
sanshanjianke1 天前
AI辅助网文创作理论研究笔记(二):一些新的思路和想法
语言模型·ai写作
大模型任我行2 天前
华为:构建特征级LLM编码评测基准
人工智能·语言模型·自然语言处理·论文笔记
Zzz 小生2 天前
LangChain Streaming-Overview:流式处理使用完全指南
人工智能·python·语言模型·langchain·github
眼镜哥(with glasses)2 天前
0215笔记-语言模型,提问范式与 Token
人工智能·笔记·语言模型