自然语言处理阅读第二弹

HuggingFace

NLP中的自回归模型和自编码模型

  • 自回归:根据上文内容预测下一个可能的单词,或者根据下文预测上一个可能的单词。只能利用上文或者下文的信息,不能同时利用上文和下文的信息。
  • 自编码:对输入的句子随机Mask其中的单词,然后预训练过程的主要任务之一是根据上下文单词来预测这些被Mask掉的单词。同时根据上下文预测单词。
  • Sequence-to-Sequence:是encoder和decoder的结合。

安装环境

视频

BERT架构

  • 输入的修改
  • 预训练任务1
  • 预测任务2
  • 总结

李沐课程

相关推荐
l12345sy7 小时前
Day24_【深度学习—广播机制】
人工智能·pytorch·深度学习·广播机制
IT古董7 小时前
【第五章:计算机视觉-项目实战之图像分类实战】1.经典卷积神经网络模型Backbone与图像-(4)经典卷积神经网络ResNet的架构讲解
人工智能·计算机视觉·cnn
向往鹰的翱翔8 小时前
BKY莱德因:5大黑科技逆转时光
大数据·人工智能·科技·生活·健康医疗
L.fountain8 小时前
机器学习shap分析案例
人工智能·机器学习
weixin_429630268 小时前
机器学习-第一章
人工智能·机器学习
Cedric11138 小时前
机器学习中的距离总结
人工智能·机器学习
大模型真好玩8 小时前
深入浅出LangGraph AI Agent智能体开发教程(五)—LangGraph 数据分析助手智能体项目实战
人工智能·python·mcp
IT_陈寒8 小时前
React性能优化:这5个Hook技巧让我的组件渲染效率提升50%(附代码对比)
前端·人工智能·后端
Captaincc8 小时前
9 月 20 日,TRAE Meetup@Guangzhou 相聚羊城
人工智能·后端