自然语言处理阅读第二弹

HuggingFace

NLP中的自回归模型和自编码模型

  • 自回归:根据上文内容预测下一个可能的单词,或者根据下文预测上一个可能的单词。只能利用上文或者下文的信息,不能同时利用上文和下文的信息。
  • 自编码:对输入的句子随机Mask其中的单词,然后预训练过程的主要任务之一是根据上下文单词来预测这些被Mask掉的单词。同时根据上下文预测单词。
  • Sequence-to-Sequence:是encoder和decoder的结合。

安装环境

视频

BERT架构

  • 输入的修改
  • 预训练任务1
  • 预测任务2
  • 总结

李沐课程

相关推荐
virtaitech3 分钟前
【免费申请】趋动科技OrionX社区版开放:GPU池化神器
人工智能·科技·gpu·池化技术·永久免费
WZGL12303 分钟前
“近邻+数智”:解码智慧养老的温情答案
大数据·人工智能·科技·生活·智能家居
elangyipi1235 分钟前
2025 搜索优化新革命:GEO 正在悄然取代 SEO?
前端·人工智能
Toky丶6 分钟前
QLoRA Efficient Finetuning of Quantized LLMs
人工智能·chatgpt
丝斯20118 分钟前
AI学习笔记整理(39)——自然语言处理算法之词向量 Word2vec
人工智能·学习·自然语言处理
星云POLOAPI16 分钟前
大模型API调用延迟过高?深度解析影响首Token时间的五大因素及优化方案
人工智能·python·算法·ai
AI题库26 分钟前
NLTK自然语言处理实战:2.4 停用词与文本清理
人工智能·自然语言处理
Coder个人博客28 分钟前
Llama.cpp Tools 实用工具深度分析
人工智能·自动驾驶·llama
Coder个人博客32 分钟前
Llama.cpp Examples 示例程序深度分析
人工智能·自动驾驶·llama
新知图书38 分钟前
FastGPT开发一个智能客服案例
人工智能·fastgpt·ai agent·智能体·大模型应用