跑大模型的经验

LLama2:

  1. 使用torchrun来跑:

    torchrun --nproc_per_node 1 example_text_completion.py
    --ckpt_dir llama-2-7b/
    --tokenizer_path tokenizer.model
    --max_seq_len 128 --max_batch_size 4

关于集群分布式torchrun命令踩坑记录(自用)-CSDN博客

  1. 显存不够:

减小max_seq_len(生成的最大程度);减小max_batch_size;

  1. MP

模型的分片数量是多少,则MP(Model Parallel)就是多少,--nproc_per_node必须设成多少(设多或设少会报错);

分片格式样例:consolidated.07.pth

  1. chat模型和base模型:

使用chat_completion调用chat模型时,格式是每条一句话,有role字段(system, user, assistant); llama代码内部用这些字段拼接成了input prompt;

使用text_completion调用base模型时,就只输入一个input prompt字符串;

SFT:

可使用transformer的trl库的SFTTrainer类,来做SFT微调训练。

Fine-Tuning LLaMA 2: A Step-by-Step Guide to Customizing the Large Language Model | DataCamp

速度更快的Megatron? DeepSpeed?

相关推荐
Ma04071319 小时前
【论文阅读27】-LMPHM:基于因果网络和大语言模型-增强知识图网络的故障推理诊断
人工智能·语言模型·自然语言处理
longfei.li20 小时前
AI项目工程化落地如何降本30%?
人工智能·语言模型
汉克老师21 小时前
小学生0基础学大语言模型应用(第4课 《数字盒子与算数魔法》)
人工智能·语言模型·自然语言处理·小学生0基础学习大语言模型
开放知识图谱21 小时前
论文浅尝 | G2S:一个用于大语言模型的时间知识图预测的通用到具体的学习框架(ACL2025)
人工智能·学习·语言模型·自然语言处理
WitsMakeMen1 天前
大语言模型要用分组注意力机制GQA
人工智能·语言模型·自然语言处理
CaiGuoHui11 天前
利用大型语言模型(LLM)实现Verilog设计中的功能缺陷定位
人工智能·深度学习·语言模型·自然语言处理
renhongxia11 天前
用大型语言模型进行复杂相对局部描述的地理定位
人工智能·语言模型·自然语言处理
赋创小助手1 天前
超微SYS-821GE-TNHR深度测评:8卡 NVIDIA H200 风冷 AI 服务器
运维·服务器·人工智能·深度学习·计算机视觉·语言模型·自然语言处理
JH灰色1 天前
【大模型】-AutoGen Studio的搭建
python·语言模型
亚里随笔2 天前
突破性框架TRAPO:统一监督微调与强化学习的新范式,显著提升大语言模型推理能力
人工智能·深度学习·机器学习·语言模型·llm·rlhf