技术栈

BERT与GPT:Transformer的双子星

墨_浅-2026-01-20 10:44

transfotmer粗略来看分为encoder(输入翻译)和decoder(输出解码)两部分,目前bert用了encoder部分,gpt用了decoder部分

上一篇:省市聚力:软件产业的“中国土壤”与“创新脊梁”
下一篇:第38章 OpenGL ES 互操作测试
相关推荐
简简单单做算法
21 小时前
基于GA遗传优化的Transformer-LSTM网络模型的时间序列预测算法matlab性能仿真
深度学习·matlab·lstm·transformer·时间序列预测·ga遗传优化·电池剩余寿命预测
极光代码工作室
1 天前
基于BERT的新闻文本分类系统
深度学习·nlp·bert·文本分类
带娃的IT创业者
1 天前
MLP vs Transformer:不同问题用不同工具
人工智能·深度学习·神经网络·transformer·架构设计·mlp
code_pgf
1 天前
Transformer 原理讲解及可视化算子操作
人工智能·深度学习·transformer
Spliceㅤ
1 天前
Product-classify-bert项目
人工智能·深度学习·bert
牛肉汤
1 天前
从零构建大语言模型
gpt
星川皆无恙
1 天前
Vision Transformer学习笔记:从 Attention 核心理论到 PyTorch 源码实战
pytorch·深度学习·transformer
AIBox365
1 天前
codex api 配置教程:安装、鉴权、Windows 环境变量
javascript·人工智能·windows·gpt
<-->
1 天前
DeepSpeed 学习指南
人工智能·pytorch·python·深度学习·transformer
热门推荐
01GitHub 镜像站点02一周AI热点速览(2026.03.31-04.06):GPT-6曝光、谷歌开源Gemma 4、资本狂飙与模型军备竞赛03OpenClaw 请求超时 llm request timed out 怎么解决?3 种方案实测,附完整排查流程04AI 编程效率翻倍:Superpowers Skills 上手清单 + 完整指南05Oh My Codex 快速使用指南06VMware Workstation Pro 17 虚拟机完整安装教程(2026最新)07Qwen3.5-Omni与Qwen3.6模型全面解析(含测评/案例/使用教程)08CodeBuddy与WorkBuddy深度对比:腾讯两款AI工具差异及实操指南09UV安装并设置国内源10Claude Code 未登录 使用第三方模型