LitGPT

我更推荐 LitGPT(Lightning-AI/litgpt):它把 预训练(from scratch / continued pretrain)→ 微调(LoRA/QLoRA/全量)→ 推理(chat/serve) 做成了一套统一的 workflow,而且强调"from scratch implementations / no abstractions / beginner friendly",很适合边跑边读代码学原理。

项目地址(GitHub):

https://github.com/Lightning-AI/litgpt

为什么它适合你这个"展示 + 学原理"的目标

• 一套 CLI 覆盖全流程:litgpt pretrain / finetune / chat / serve / evaluate,从训练到部署推理都能跑通。

• 可视化/实验追踪方便:配置里支持 logger_name: wandb / tensorboard / csv,很容易把 loss、吞吐、显存等曲线拉起来。

• 多卡扩展友好:配置项里直接有 devices、num_nodes,并且 README 里也明确覆盖 FSDP、可扩展到多 GPU 规模。

• Jupyter 友好:Lightning 系生态在 notebook 里跑多 GPU 是常规用法;LitGPT 也有"在 notebook 或终端运行微调"的示例路径。

在 Jupyter 里从 0 跑通(训练→微调→推理→可视化)的最小路径

下面命令都可以直接在 notebook 用 ! 运行。

  1. 安装

!pip install 'litgpt[extra]'

  1. 预训练/继续预训练(从你自己的文本文件夹开始)

LitGPT README 给了一个非常清晰的例子:用 Pythia-160M + TextFiles 数据源,把你放在 custom_texts/ 的文本喂进去训练,然后直接 chat 测试。

!mkdir -p custom_texts

你可以把自己的语料 .txt 放进 custom_texts/

这里用古登堡做个演示(可删)

!curl -L https://www.gutenberg.org/cache/epub/24440/pg24440.txt -o custom_texts/book1.txt

!curl -L https://www.gutenberg.org/cache/epub/26393/pg26393.txt -o custom_texts/book2.txt

1) 只下载 tokenizer

!litgpt download EleutherAI/pythia-160m --tokenizer_only True

2) 预训练(或"继续预训练"也用 pretrain,只是多传 initial_checkpoint_dir)

!litgpt pretrain EleutherAI/pythia-160m \

--tokenizer_dir EleutherAI/pythia-160m \

--data TextFiles \

--data.train_data_path "custom_texts/" \

--train.max_tokens 10000000 \

--out_dir out/custom-pretrain

  1. 微调(用 JSON 数据集快速看懂 SFT 流程)

README 也给了一个 litgpt finetune microsoft/phi-2 --data JSON ... 的最小例子:下载一个 JSON 数据集→微调→chat 测试→serve 部署。

!curl -L https://huggingface.co/datasets/ksaw008/finance_alpaca/resolve/main/finance_alpaca.json -o my_custom_dataset.json

!litgpt finetune microsoft/phi-2 \

--data JSON \

--data.json_path my_custom_dataset.json \

--data.val_split_fraction 0.1 \

--out_dir out/custom-finetune

!litgpt chat out/custom-finetune/final

!litgpt serve out/custom-finetune/final

  1. 用 8 张卡(5090×8)怎么接入

LitGPT 的配置里就有 devices / num_nodes,你可以直接用 YAML 配置把 devices: 8 打开(以及把 logger 切到 tensorboard/wandb)。

最简单做法:从它的 config hub 选一个配置(README 里展示了 --config ...lora.yaml 的用法),然后覆盖关键参数。

(你也可以自己写一个很小的 config,只保留 devices / logger_name / precision 等关键项。)

  1. 可视化(TensorBoard / W&B)

• Lightning 默认就支持 TensorBoard logger,并会把日志写到目录里;LitGPT 配置也能选 logger_name: tensorboard。

• 在 notebook 环境里跑训练/多 GPU 也是 Lightning 的常见用法。

备选(如果你更偏"工程化大规模训练/基准/部署全家桶")

• MosaicML LLM Foundry:更偏"训练/微调/评测/推理基准"一体化工程代码库,适合做更接近生产的 pipeline。

• nanoGPT:极简、从零实现最适合读代码学 Transformer 训练本质,但"微调/部署/可视化一体化"不如 LitGPT 开箱即用。

如果你的目标是 在 Jupyter 里用 8 卡把"预训练→微调→推理→可视化"完整演示一遍,并且还能顺手读源码学原理,LitGPT 基本是目前最省心的一站式选择。

相关推荐
Xudde.3 小时前
班级作业笔记报告0x04
笔记·学习·安全·web安全·php
晓晓hh3 小时前
JavaSE学习——迭代器
java·开发语言·学习
421!4 小时前
GPIO工作原理以及核心
开发语言·单片机·嵌入式硬件·学习
AI成长日志4 小时前
【笔面试算法学习专栏】双指针专题·简单难度两题精讲:167.两数之和II、283.移动零
学习·算法·面试
小手指动起来5 小时前
保姆级提示词工程学习总结(含实操示例+工具推荐)
人工智能·学习·自然语言处理
绛橘色的日落(。・∀・)ノ5 小时前
Matplotlib实践学习笔记
笔记·学习
chase。5 小时前
【学习笔记】AGILE:把人形机器人强化学习从“玄学”变成“工程学”
笔记·学习·敏捷流程
bu_shuo6 小时前
git练习学习网站【中文网站】
git·学习
EnglishJun7 小时前
ARM嵌入式学习(十四)--- IMX6ULL的I2C通信实现
arm开发·学习
_李小白7 小时前
【OSG学习笔记】Day 31: 渲染到纹理(RTT)
笔记·数码相机·学习