技术栈
BERT与GPT:Transformer的双子星
墨_浅-
2026-01-20 10:44
transfotmer粗略来看分为encoder(输入翻译)和decoder(输出解码)两部分,目前bert用了encoder部分,gpt用了decoder部分
gpt
bert
transformer
上一篇:
省市聚力:软件产业的“中国土壤”与“创新脊梁”
下一篇:
第38章 OpenGL ES 互操作测试
相关推荐
小超同学你好
8 小时前
LangGraph 14. MCP:把“外部能力”标准化接入 LLM
人工智能
·
语言模型
·
transformer
_张一凡
8 小时前
【多模态模型学习】从零手撕一个Vision Transformer(ViT)模型实战篇
人工智能
·
深度学习
·
transformer
播播资源
10 小时前
OpenAI2026 年 3 月 18 日最新 gpt-5.4-nano模型:AI 智能体的“神经末梢”,以极低成本驱动高频任务
大数据
·
人工智能
·
gpt
华农DrLai
13 小时前
什么是Prompt工程?为什么提示词的质量决定AI输出的好坏?
数据库
·
人工智能
·
gpt
·
大模型
·
nlp
·
prompt
抓个马尾女孩
14 小时前
位置编码:绝对位置编码、相对位置编码、旋转位置编码
人工智能
·
深度学习
·
算法
·
transformer
张张123y
15 小时前
AI Agent Memory:从理论到实战,掌握长短期记忆的核心技术【1】
大数据
·
人工智能
·
transformer
qq_28168421
16 小时前
Transformer-XL:突破固定长度枷锁,重构长文本语言模型
人工智能
·
深度学习
·
语言模型
·
重构
·
transformer
华农DrLai
17 小时前
什么是角色扮演Prompt?为什么给AI设定身份能提升表现?
人工智能
·
深度学习
·
ai
·
prompt
·
bert
·
transformer
张张123y
19 小时前
知识图谱从0到1:AI应用开发的核心技术
人工智能
·
langchain
·
transformer
·
知识图谱
Rubin智造社
19 小时前
OpenAI发布GPT-5.4 mini/nano,性能差距悬殊,费用直降1/12
人工智能
·
gpt
热门推荐
01
GitHub 镜像站点
02
Qwen3.5 开源全解析:从 0.8B 到 397B,代际升级 + 全场景选型指南
03
OpenClaw 使用和管理 MCP 完全指南
04
Labelme从安装到标注:零基础完整指南
05
AI 编程三剑客:Spec-Kit、OpenSpec、Superpowers 深度对比与实战指南
06
UV安装并设置国内源
07
小黑课堂计算机二级WPSoffice题库软件下载安装教程(2026年3月最新版)
08
OpenClaw Control UI安全上下文访问配置
09
Claude Code + GLM4.7 避坑指南:解决 Unable to connect to Anthropic services
10
“wsl --install -d Ubuntu-22.04”下载慢,中国地区离线安装 Ubuntu 22.04 WSL方法(亲测2025年5月6日)