NLP经典入门论文

1.基础部分

Word2Vec

Efficient Estimation of Word Representations in Vector Space

https://arxiv.org/abs/1301.3781v3

Transformer

attention is all you need

https://arxiv.org/abs/1706.03762

BERT

Pre-training of Deep Bidirectional Transformers for Language Understanding

https://arxiv.org/abs/1810.04805

ERNIE

https://arxiv.org/pdf/1904.09223

GPT

gpt1: Improving Language Understanding by Generative Pre-Training

gpt2: Language Models are Unsupervised Multitask Learners

gpt3: Language Models are Few-Shot Learners

2.进阶部分

roberta模型

RoBERTa: A Robustly Optimized BERT Pretraining Approach

相关推荐
navyDagger4 分钟前
GAN生成对抗网络数学原理解释并实现MNIST数据集生产(附代码演示)
人工智能·python
极客智谷5 分钟前
Spring AI应用系列——基于DashScope平台自主Model配置的Chat应用
人工智能·后端
Cherry Xie7 分钟前
阿里开源图片驱动数字人框架EMO2,新增视频输入
人工智能
扎Zn了老Fe9 分钟前
三步本地部署大模型deep seek
人工智能
lilye6613 分钟前
精益数据分析(26/126):依据商业模式确定关键指标
大数据·人工智能·数据分析
Panesle13 分钟前
月之暗面开源-音频理解、生成和对话生成模型:Kimi-Audio-7B-Instruct
人工智能·音视频·语音生成
视觉语言导航21 分钟前
复杂地形越野机器人导航新突破!VERTIFORMER:数据高效多任务Transformer助力越野机器人移动导航
人工智能·深度学习·机器人·transformer·具身智能
kebijuelun22 分钟前
OpenVLA:大语言模型用于机器人操控的经典开源作品
人工智能·语言模型·机器人
掘金安东尼30 分钟前
大模型+Python脚本,打造属于你的“批量生成文档”应用!
人工智能
vocal31 分钟前
谷歌第七版Prompt Engineering—第二部分
人工智能·后端