从零开始训练一个ChatGPT大模型(低资源,1B3)

macrogpt-prertrain

大模型全量预训练(1b3), 多卡deepspeed/单卡adafactor

源码地址:https://github.com/yongzhuo/MacroGPT-Pretrain.git

踩坑

python 复制代码
1. 数据类型fp16不太行, 很容易就Nan了, 最好是fp32, tf32,
2. 单卡如果显存不够, 可以用优化器'adafactor',
3. 如果数据量很大, 加载时间特别长(默认设置稍微大一点数据就得加载好几个小时), 可以分批次训练,

环境配置

shell 复制代码
transformers>=4.31.0
torch>=1.10.1
rouge==1.0.1
nltk==3.6.6
peft>=0.2.0
numpy
tqdm

预训练

shell 复制代码
地址: macro_gpt/ft_gpt

配置: macro_gpt/ft_gpt/config.llama_1b3_float32.json
单卡第一次训练: python train.pt.py
单卡继续训练: python train.pt.add.py
多卡训练: deepspeed --num_gpus=2 train.pt.speed.py --deepspeed ds.json

预训练日志(TigerBot-en)

图为tigerbot-en-00001-of-00097.json的预训练日志, loss收敛到3左右

图为baidu百科数据集(第一个60w,此外还有10%领域专业数据)的预训练日志, loss收敛到3左右

预测日志

一问一答还行, 1b3的大模型上下文能力确实比较弱

数据集-中文

参考/感谢

免责申明

本项目相关资源仅供学术研究之用,使用涉及第三方代码的部分时,请严格遵循相应的开源协议。模型生成的内容受模型计算、随机性和量化精度损失等因素影响,本项目不对其准确性作出保证。对于模型输出的任何内容,本项目不承担任何法律责任,亦不对因使用相关资源和输出结果而可能产生的任何损失承担责任。

对于模型输出的任何内容,本项目不承担任何法律责任,亦不对因使用相关资源和输出结果而可能产生的任何损失承担责任。

相关推荐
盼小辉丶6 小时前
PyTorch实战(10)——从零开始实现GPT模型
人工智能·pytorch·gpt·深度学习
User_芊芊君子7 小时前
从“能说会道”到“自主思考”:一文读懂AI的过去、现在与未来
人工智能·chatgpt
哪吒编程1 天前
重磅更新!满血GPT-5.1上线,全方位提升,很强
chatgpt·openai
Constantine371 天前
GPT-5.1已上线!亲测国内可用,保姆级使用教程
gpt
FreeBuf_1 天前
攻击者利用自定义GPT的SSRF漏洞窃取ChatGPT机密数据
gpt·chatgpt
yaocheng的ai分身1 天前
【转载】 OpenAI 推出 GPT-5.1:面向开发者的智能模型
gpt·chatgpt
AI探知-阿薇1 天前
GPT-5.1发布:深入解读与 GPT-5、GPT-4o 在性能与安全基准上的全面对比
gpt·安全
win4r2 天前
🚀深度实测!GPT-5.1 vs Claude Sonnet 4.5!谁是赢家?从万字长文到古诗词创作,从3D游戏编程到浏览器自动化,结果竟然出人意料!Cla
chatgpt·aigc·openai
算家计算2 天前
GPT-5.1深夜发布却无惊喜?从GPT-5.1看大模型发展瓶颈
人工智能·chatgpt·openai
知了一笑2 天前
AI时代,不被淘汰的开发者,都有这三种能力
chatgpt·ai编程·claude·cursor