gpt、llama大模型模型结构细节探索

参考:

https://github.com/naklecha/llama3-from-scratch(一定要看看)

https://github.com/karpathy/build-nanogpt/blob/master/play.ipynb

视频:

https://www.youtube.com/watch?v=l8pRSuU81PU

https://tiktokenizer.vercel.app/ (可以查看场景大模型的tiktokenizer具体值encode与decode)

可以通过transformers加载模型查看具体结构和权重情况:

cpp 复制代码
from transformers import GPT2LMHeadModel

model_hf = GPT2LMHeadModel.from_pretrained("gpt2") # 124M
sd_hf = model_hf.state_dict()

for k, v in sd_hf.items():
    print(k, v.shape)

可以查看打印每层权重:

cpp 复制代码
sd_hf["transformer.wpe.weight"].view(-1)[:20]

import matplotlib.pyplot as plt
%matplotlib inline

plt.imshow(sd_hf["transformer.wpe.weight"], cmap="gray")
相关推荐
jonyleek1 小时前
私有化部署大模型时,如何平衡“数据安全”与“推理性能”的矛盾?
人工智能·ai·大模型·jvs·ai套件·jvs-ai套件
Maynor9962 小时前
Codex 中国站正式上线!
人工智能·gpt·macos·github
时序之心3 小时前
时序前沿:CNN结合Transformer,通过通道-头绑定实现多变量时序插补!
人工智能·transformer·时间序列
HXR_plume3 小时前
【论文精读】生成式预训练之BART
人工智能·gpt·bert
西西弗Sisyphus4 小时前
从零实现Transformer:第 2 部分 - 缩放点积注意力(Scaled Dot-Product Attention)
transformer·attention·注意力机制·注意力
Maiko Star4 小时前
SSE流式输出
大模型·sse·springai·流式输出
小超同学你好5 小时前
OpenClaw 深度解析与源代码导读 · 第10篇:多 Agent 核心(agents.list、bindings 与隔离边界的可验证机制)
人工智能·深度学习·语言模型·transformer
机器学习之心5 小时前
IGWO-Transformer模型回归+SHAP分析+新数据预测+多输出!深度学习可解释分析(附MATLAB代码)
深度学习·回归·transformer·shap分析·igwo
147API5 小时前
2026 国内 GPT API 中转站测评:147AI、PoloAPI、星链4SAPI 怎么选
gpt·api中转·api大模型
code_pgf6 小时前
OpenPI / π₀ 系列算法详解、创新点及 Jetson Orin NX 16GB 边缘端部署
人工智能·transformer·agi·palm