技术栈
Transformer以及BERT阅读参考博文
mumukehao
2025-02-14 13:56
Transformer以及BERT阅读参考博文
Transformer学习:
已有博主的讲解特别好了:
李沐:
Transformer论文逐段精读【论文精读】_哔哩哔哩_bilibili
知乎:
Transformer模型详解(图解最完整版) - 知乎
个人杂想:
Q K T ∗ V QK^{T}*V QKT∗V中, Q K T QK^T QKT其实可以理解为相似性矩阵S,那么 S ∗ V S*V S∗V其实就相当于相似性矩阵对原始的嵌入加权求和。这感觉就是GAT的一个思想源泉。
残差连接和concat挺重要的
BERT
BERT模型架构详解 - 知乎
李沐:
BERT 论文逐段精读【论文精读】_哔哩哔哩_bilibili
文本属性图
上一篇:
时尚搭配助手,深度解析用Keras构建智能穿搭推荐系统
下一篇:
DeepSeek从入门到精通:提示词设计的系统化指南
相关推荐
mumukehao
1 年前
Pretraining Language Models with Text-Attributed Heterogeneous Graphs
文本属性图
热门推荐
01
GitHub 镜像站点
02
Codex 接入 DeepSeek API 完整配置文档
03
CC-Switch & Claude 基于 Linux 服务器安装使用指南
04
【AI】2026 年具身智能模型和世界模型总结
05
零基础教你claude code 接入 deepseek V4
06
Cursor 接入 DeepSeek‑V4‑Pro 完整指南(2026 实测)
07
codex app每次打开重连5次Reconnecting问题解决
08
Windows端Codex接入第三方模型(DeekSeek,BaiLian)
09
要裂开了!ChatGPT要手机号验证了?注册Codex要求验证电话号码怎么办?2026年登陆Codex要手机号验证的解决办法
10
裂开!ChatGPT 居然开始要手机号验证,附详细解决方法