百度ERNIE系列预训练语言模型浅析(4)-总结篇

总结:ERNIE 3.0与ERNIE 2.0比较

(1)相同点:

采用连续学习

采用了多个语义层级的预训练任务

(2)不同点:

ERNIE 3.0 Transformer-XL Encoder(自回归+自编码), ERNIE 2.0 Transformer Encoder(自编码)

预训练任务的细微差别,ERNIE3.0里增加的知识图谱

ERNIE 3.0考虑到不同的预训练任务具有不同的高层语义,而共享着底层的语义(比如语法,词法等),为了充分地利用数据并且实现高效预训练,ERNIE 3.0中对采用了多任务训练中的常见做法,将不同的特征层分为了通用语义层(Universal Representation)和任务相关层(Task-specific Representation)。

参考

相关推荐
vi1212319 小时前
土壤与水分遥感反演技术综述:原理、方法与应用
人工智能·算法·无人机
我不是QI19 小时前
周志华《机器学习—西瓜书》八
人工智能·机器学习
shenzhenNBA19 小时前
python如何调用AI之deepseek的API接口?
人工智能·python·deepseek·调用deepseek api
王中阳Go20 小时前
攻克制造业知识检索难题:我们如何用Go+AI打造高可用RAG系统,将查询效率提升600%
人工智能·后端·go
有痣青年20 小时前
Gemini 3 Flash 技术深度解析:多模态、推理引擎与开发者新特性
人工智能·ai编程·gemini
CodeLinghu20 小时前
路由:Agent能够根据条件动态决定工作流的下一步
人工智能·microsoft·ai·llm
Felaim20 小时前
【自动驾驶基础】LDM(Latent Diffusion Model) 要点总结
人工智能·机器学习·自动驾驶
科技快报20 小时前
昇思人工智能框架峰会 | 昇思MindSpore MoE模型性能优化方案,提升训练性能15%+
人工智能·性能优化
式51620 小时前
量子力学基础(二)狄拉克符号与复数向量空间
人工智能·算法·机器学习
视觉&物联智能20 小时前
【杂谈】-人工智能:助力护士回归人文关怀,而非取而代之
人工智能·深度学习·ai·aigc·agi