技术栈
预训练模型微调
晚点吧
1 年前
gpt
·
大模型
·
预训练模型微调
·
gpt2
GPT(Generative Pre-Training)论文解读及源码实现(二)
本篇为gpt2的pytorch实现,参考 nanoGPTnanoGPT如何使用见后面第5节data/shakespeare/prepare.py 文件源码分析