人工智能论文:BERT和GPT, GPT-2, GPT-3 的简明对比和主要区别

在BERT的论文里面: 2018.10 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding,BERT已经解释了BERT,GPT,ELMo的区别。

*ELMo为双向RNN,请忽略。

主要区别:

  • BERT使用的是transformer的encoder,双向,专注于完形填空。对于缺失的内容和应试内容比较擅长。
  • GPT使用的是transformer的decoder,单向,专注于预测,因为decoder看不到后面的字符,训练GPT的预测性能。
  • BERT和GPT-1都使用了微调,以应对各种考试。而后期GPT-2,GPT-3抛弃微调,专注于通用人工智能。
相关推荐
king王一帅19 小时前
流式渲染 Incremark、ant-design-x markdown、streammarkdown-vue 全流程方案对比
前端·javascript·人工智能
AI营销实验室19 小时前
AI CRM系统推荐,原圈科技赋能地产销售
人工智能·科技
cskywit19 小时前
MobileMamba中的小波分析
人工智能·深度学习
ws20190719 小时前
智行未来,科技驱动:AUTO TECH China 2026广州展将于11月27日举办!
人工智能·科技·汽车
HyperAI超神经20 小时前
【vLLM 学习】Prithvi Geospatial Mae
人工智能·python·深度学习·学习·大语言模型·gpu·vllm
赫凯20 小时前
【强化学习】第一章 强化学习初探
人工智能·python·强化学习
百锦再20 小时前
AI赋能智慧客服与人工客服融合系统企业级方案
人工智能·ai·aigc·模型·自然语言·赋能·只能
"YOUDIG"20 小时前
AI智能匹配:一站式电脑配置推荐平台——科学原理与个性化服务解析
人工智能
AI视觉网奇20 小时前
图像编码成特征向量
人工智能·计算机视觉
勤奋的小王同学~20 小时前
(Coze-AI)智能体介绍 coze知识库和数据库资源
人工智能