跑大模型的经验

LLama2:

  1. 使用torchrun来跑:

    torchrun --nproc_per_node 1 example_text_completion.py
    --ckpt_dir llama-2-7b/
    --tokenizer_path tokenizer.model
    --max_seq_len 128 --max_batch_size 4

关于集群分布式torchrun命令踩坑记录(自用)-CSDN博客

  1. 显存不够:

减小max_seq_len(生成的最大程度);减小max_batch_size;

  1. MP

模型的分片数量是多少,则MP(Model Parallel)就是多少,--nproc_per_node必须设成多少(设多或设少会报错);

分片格式样例:consolidated.07.pth

  1. chat模型和base模型:

使用chat_completion调用chat模型时,格式是每条一句话,有role字段(system, user, assistant); llama代码内部用这些字段拼接成了input prompt;

使用text_completion调用base模型时,就只输入一个input prompt字符串;

SFT:

可使用transformer的trl库的SFTTrainer类,来做SFT微调训练。

Fine-Tuning LLaMA 2: A Step-by-Step Guide to Customizing the Large Language Model | DataCamp

速度更快的Megatron? DeepSpeed?

相关推荐
沪漂阿龙22 分钟前
智能体:给大语言模型装上“手脚”,让它学会使用工具
人工智能·语言模型·自然语言处理
QiZhang | UESTC38 分钟前
《A Neural Probabilistic Language Model》神经网络与语言模型的初次会面
人工智能·神经网络·语言模型
AI浩1 小时前
CoSMo3D:通过大语言模型引导的规范空间建模实现开放世界可提示的3D语义部件分割
人工智能·3d·语言模型
红茶川2 小时前
[ExecuTorch 系列] 3. 导出自定义的大语言模型
pytorch·ai·语言模型·端侧ai
智算菩萨2 小时前
ChatGPT 5.4 Thinking与Pro性能深度评测及原理解析
人工智能·深度学习·ai·语言模型·chatgpt
troubles maker10 小时前
Decoder-Only模型
语言模型·nlp
小超同学你好10 小时前
Transformer 9. Decoder-Encoder 层多头自注意力机制
人工智能·语言模型·transformer
智算菩萨10 小时前
Chain-of-Thought Prompting:为什么逐步推理能提升大模型准确率
人工智能·深度学习·机器学习·语言模型·强化学习
PNP机器人11 小时前
具身大型语言模型让机器人玩转复杂未知场景
人工智能·语言模型·机器人·kinova机械臂
Rabbit_QL11 小时前
Ollama 本地 LLM 配置指南
人工智能·语言模型