技术栈

预训练模型微调

晚点吧
1 年前
gpt·大模型·预训练模型微调·gpt2
GPT(Generative Pre-Training)论文解读及源码实现(二)本篇为gpt2的pytorch实现,参考 nanoGPTnanoGPT如何使用见后面第5节data/shakespeare/prepare.py 文件源码分析