人工智能论文:BERT和GPT, GPT-2, GPT-3 的简明对比和主要区别

在BERT的论文里面: 2018.10 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding,BERT已经解释了BERT,GPT,ELMo的区别。

*ELMo为双向RNN,请忽略。

主要区别:

  • BERT使用的是transformer的encoder,双向,专注于完形填空。对于缺失的内容和应试内容比较擅长。
  • GPT使用的是transformer的decoder,单向,专注于预测,因为decoder看不到后面的字符,训练GPT的预测性能。
  • BERT和GPT-1都使用了微调,以应对各种考试。而后期GPT-2,GPT-3抛弃微调,专注于通用人工智能。
相关推荐
SmartBrain1 分钟前
战略洞察:以AI为代表的第四次工业革命
人工智能·语言模型·aigc
一个处女座的程序猿10 分钟前
AI之Agent之VibeCoding:《Vibe Coding Kills Open Source》翻译与解读
人工智能·开源·vibecoding·氛围编程
Jay Kay17 分钟前
GVPO:Group Variance Policy Optimization
人工智能·算法·机器学习
风指引着方向27 分钟前
归约操作优化:ops-math 的 Sum/Mean/Max 实现
人工智能·wpf
机器之心28 分钟前
英伟达世界模型再进化,一个模型驱动所有机器人!机器人的GPT时刻真正到来
人工智能·openai
纯爱掌门人34 分钟前
终焉轮回里,藏着 AI 与人类的答案
前端·人工智能·aigc
人工智能AI技术38 分钟前
Transformer:大模型的“万能骨架”
人工智能
uesowys1 小时前
Apache Spark算法开发指导-Factorization machines classifier
人工智能·算法
人工智能AI技术2 小时前
预训练+微调:大模型的“九年义务教育+专项补课”
人工智能
aircrushin2 小时前
中国多模态大模型历史性突破:智源Emu3自回归统一范式技术深度解读
人工智能