自然语言处理阅读第二弹

HuggingFace

NLP中的自回归模型和自编码模型

  • 自回归:根据上文内容预测下一个可能的单词,或者根据下文预测上一个可能的单词。只能利用上文或者下文的信息,不能同时利用上文和下文的信息。
  • 自编码:对输入的句子随机Mask其中的单词,然后预训练过程的主要任务之一是根据上下文单词来预测这些被Mask掉的单词。同时根据上下文预测单词。
  • Sequence-to-Sequence:是encoder和decoder的结合。

安装环境

视频

BERT架构

  • 输入的修改
  • 预训练任务1
  • 预测任务2
  • 总结

李沐课程

相关推荐
研一计算机小白一枚4 分钟前
VRFF: Video Registration and FusionFramework 论文详解
人工智能·深度学习·计算机视觉
Leo.yuan16 分钟前
数据湖是什么?数据湖和数据仓库的区别是什么?
大数据·运维·数据仓库·人工智能·信息可视化
仙人掌_lz37 分钟前
如何打造一款金融推理工具Financial Reasoning Workflow:WebUI+Ollama+Fin-R1+MCP/RAG
人工智能·搜索引擎·ai·金融·llm·rag·mcp
MILI元宇宙39 分钟前
纳米AI搜索与百度AI搜、豆包的核心差异解析
人工智能·百度
SpikeKing1 小时前
LLM - LlamaFactory 的大模型推理 踩坑记录
人工智能·llm·llamafactory
marteker1 小时前
年度峰会上,抖音依靠人工智能和搜索功能吸引广告主
人工智能·搜索引擎
飞哥数智坊1 小时前
AI编程实战:生成结果不合心意,1个简单思路帮你破解
人工智能·cursor
华清远见成都中心1 小时前
大语言模型(LLM)中的KV缓存压缩与动态稀疏注意力机制设计
人工智能·缓存·语言模型
hao_wujing1 小时前
基于梯度的中毒攻击
大数据·人工智能
Lethehong3 小时前
Gemini 2.5 Pro (0605版本) 深度测评与体验指南
人工智能·chatgpt·googlecloud