NLP经典入门论文

1.基础部分

Word2Vec

Efficient Estimation of Word Representations in Vector Space

https://arxiv.org/abs/1301.3781v3

Transformer

attention is all you need

https://arxiv.org/abs/1706.03762

BERT

Pre-training of Deep Bidirectional Transformers for Language Understanding

https://arxiv.org/abs/1810.04805

ERNIE

https://arxiv.org/pdf/1904.09223

GPT

gpt1: Improving Language Understanding by Generative Pre-Training

gpt2: Language Models are Unsupervised Multitask Learners

gpt3: Language Models are Few-Shot Learners

2.进阶部分

roberta模型

RoBERTa: A Robustly Optimized BERT Pretraining Approach

相关推荐
njsgcs几秒前
我有待做任务清单和不良操作图片集,如何设计ai agent协助我完成工作
大数据·人工智能
AI科技星2 分钟前
《全域数学》第三卷:代数原本 · 全书详述【乖乖数学】
开发语言·人工智能·机器学习·数学建模
AI科技星7 分钟前
《全域数学》第一部 数术本源 第三卷 代数原本第14篇 附录二 猜想证明【乖乖数学】
人工智能·算法·数学建模·数据挖掘·量子计算
XD7429716368 分钟前
科技早报|2026年5月2日:AI 编程工具开始按用量收费
人工智能·科技·ai编程·github copilot·科技早报
liangdabiao8 分钟前
乐高摩托车深度报告-致敬张雪夺冠 -基于llm-wiki技术自动化写文章的效果
运维·人工智能·自动化
KC27010 分钟前
Prompt 注入攻击的 5 种姿势和防御指南
人工智能
不懒不懒13 分钟前
【从零入门本地大模型:Ollama 安装部署 + Qwen2.5 实现零样本情感分类】
人工智能·分类·数据挖掘·大模型·ollama
徐健峰17 分钟前
GPT-image-2 热门玩法实战(二):AI 面相分析 & 个人色彩诊断 — 上传自拍秒出专业报告
人工智能·gpt
冰西瓜60018 分钟前
深度学习的数学原理(三十二)—— Transformer全场景掩码机制详解
人工智能·深度学习·transformer
绘梨衣54719 分钟前
Agentic RAG、传统RAG、ReAct、Function Calling 核心关系
人工智能·chatgpt·tensorflow