LitGPT

我更推荐 LitGPT(Lightning-AI/litgpt):它把 预训练(from scratch / continued pretrain)→ 微调(LoRA/QLoRA/全量)→ 推理(chat/serve) 做成了一套统一的 workflow,而且强调"from scratch implementations / no abstractions / beginner friendly",很适合边跑边读代码学原理。

项目地址(GitHub):

https://github.com/Lightning-AI/litgpt

为什么它适合你这个"展示 + 学原理"的目标

• 一套 CLI 覆盖全流程:litgpt pretrain / finetune / chat / serve / evaluate,从训练到部署推理都能跑通。

• 可视化/实验追踪方便:配置里支持 logger_name: wandb / tensorboard / csv,很容易把 loss、吞吐、显存等曲线拉起来。

• 多卡扩展友好:配置项里直接有 devices、num_nodes,并且 README 里也明确覆盖 FSDP、可扩展到多 GPU 规模。

• Jupyter 友好:Lightning 系生态在 notebook 里跑多 GPU 是常规用法;LitGPT 也有"在 notebook 或终端运行微调"的示例路径。

在 Jupyter 里从 0 跑通(训练→微调→推理→可视化)的最小路径

下面命令都可以直接在 notebook 用 ! 运行。

  1. 安装

!pip install 'litgpt[extra]'

  1. 预训练/继续预训练(从你自己的文本文件夹开始)

LitGPT README 给了一个非常清晰的例子:用 Pythia-160M + TextFiles 数据源,把你放在 custom_texts/ 的文本喂进去训练,然后直接 chat 测试。

!mkdir -p custom_texts

你可以把自己的语料 .txt 放进 custom_texts/

这里用古登堡做个演示(可删)

!curl -L https://www.gutenberg.org/cache/epub/24440/pg24440.txt -o custom_texts/book1.txt

!curl -L https://www.gutenberg.org/cache/epub/26393/pg26393.txt -o custom_texts/book2.txt

1) 只下载 tokenizer

!litgpt download EleutherAI/pythia-160m --tokenizer_only True

2) 预训练(或"继续预训练"也用 pretrain,只是多传 initial_checkpoint_dir)

!litgpt pretrain EleutherAI/pythia-160m \

--tokenizer_dir EleutherAI/pythia-160m \

--data TextFiles \

--data.train_data_path "custom_texts/" \

--train.max_tokens 10000000 \

--out_dir out/custom-pretrain

  1. 微调(用 JSON 数据集快速看懂 SFT 流程)

README 也给了一个 litgpt finetune microsoft/phi-2 --data JSON ... 的最小例子:下载一个 JSON 数据集→微调→chat 测试→serve 部署。

!curl -L https://huggingface.co/datasets/ksaw008/finance_alpaca/resolve/main/finance_alpaca.json -o my_custom_dataset.json

!litgpt finetune microsoft/phi-2 \

--data JSON \

--data.json_path my_custom_dataset.json \

--data.val_split_fraction 0.1 \

--out_dir out/custom-finetune

!litgpt chat out/custom-finetune/final

!litgpt serve out/custom-finetune/final

  1. 用 8 张卡(5090×8)怎么接入

LitGPT 的配置里就有 devices / num_nodes,你可以直接用 YAML 配置把 devices: 8 打开(以及把 logger 切到 tensorboard/wandb)。

最简单做法:从它的 config hub 选一个配置(README 里展示了 --config ...lora.yaml 的用法),然后覆盖关键参数。

(你也可以自己写一个很小的 config,只保留 devices / logger_name / precision 等关键项。)

  1. 可视化(TensorBoard / W&B)

• Lightning 默认就支持 TensorBoard logger,并会把日志写到目录里;LitGPT 配置也能选 logger_name: tensorboard。

• 在 notebook 环境里跑训练/多 GPU 也是 Lightning 的常见用法。

备选(如果你更偏"工程化大规模训练/基准/部署全家桶")

• MosaicML LLM Foundry:更偏"训练/微调/评测/推理基准"一体化工程代码库,适合做更接近生产的 pipeline。

• nanoGPT:极简、从零实现最适合读代码学 Transformer 训练本质,但"微调/部署/可视化一体化"不如 LitGPT 开箱即用。

如果你的目标是 在 Jupyter 里用 8 卡把"预训练→微调→推理→可视化"完整演示一遍,并且还能顺手读源码学原理,LitGPT 基本是目前最省心的一站式选择。

相关推荐
weixin_458872613 小时前
东华复试OJ每日3题打卡·复盘88~90
学习
不吃橘子的橘猫3 小时前
《集成电路设计》复习资料3(电路模拟与SPICE)
学习·算法·集成电路·仿真·半导体
开发者导航4 小时前
【开发者导航】多功能生成模型开发工具:Diffusers 详细介绍
人工智能·python·学习·macos·信息可视化
我命由我123454 小时前
Visual Studio 文件的编码格式不一致问题:错误 C2001 常量中有换行符
c语言·开发语言·c++·ide·学习·学习方法·visual studio
运维管理4 小时前
H3C交换机Hybrid端口配置与VLAN理解-学习
运维·网络·学习
pyniu5 小时前
Elasticsearch学习
后端·学习·elasticsearch·搜索引擎
liliangcsdn5 小时前
IMPALA强化学习算法的学习和解读
学习·算法
蒸蒸yyyyzwd5 小时前
os八股学习笔记
笔记·学习
野犬寒鸦5 小时前
Java8 ConcurrentHashMap 深度解析(底层数据结构详解及方法执行流程)
java·开发语言·数据库·后端·学习·算法·哈希算法