NLP论文

  1. BERT(bidirectional encoder representations from transformer)是谷歌公司发明的,基于自注意力机制的nlp模型。有预训练好的模型,并且开源的供所有人去做调优。是2018年的时候最优秀的nlp模型。

训练方式:自编码(Autoencoding)

预测目标:给定上下文,预测其中的一个或多个缺失单词

输入处理:双向,可以同时考虑一个词的左右上下文

适用场景:适合理解上下文,有助于信息提取、问答系统、情感分析等

架构:基于Transformer的编码器

语言模型:判别式(Discriminative)

优点:对上下文理解能力较强

缺点:生成的文本连贯性较弱

GitHub - google-research/bert: TensorFlow code and pre-trained models for BERT

GitHub - ymcui/Chinese-BERT-wwm: Pre-Training with Whole Word Masking for Chinese BERT(中文BERT-wwm系列模型)

  1. GPT(Generative Pretrained Transformer)

训练方式:自回归(Autoregressive)

预测目标:在给定前面的单词时,预测下一个单词

输入处理:单向(从左往右或者从右往左)

适用场景:适合生成式任务,如文章生成、诗歌创作等

架构:基于Transformer的解码器

语言模型:生成式(Generative)

优点:预测的连贯性较强

缺点:对上下文理解能力相对较弱

  1. T5

  2. Bart

可以去仔细阅读的文章如下:(待读)

  1. Attention is all you need

  2. BERT:Pre-training of Deep Bidirectional Transformer for language understanding

  3. GPT体验

https://poe.com/

相关推荐
weixin79893765432...6 分钟前
Vue + Express + DeepSeek 实现一个简单的对话式 AI 应用
vue.js·人工智能·express
nju_spy22 分钟前
ToT与ReAct:突破大模型推理能力瓶颈
人工智能·大模型·大模型推理·tot思维树·react推理行动·人工智能决策·ai推理引擎
AI-智能22 分钟前
别啃文档了!3 分钟带小白跑完 Dify 全链路:从 0 到第一个 AI 工作流
人工智能·python·自然语言处理·llm·embedding·agent·rag
y***86691 小时前
C机器学习.NET生态库应用
人工智能·机器学习
deng12041 小时前
基于LeNet-5的图像分类小结
人工智能·分类·数据挖掘
OpenAnolis小助手2 小时前
直播预告:LLM for AIOPS,是泡沫还是银弹? |《AI 进化论》第六期
人工智能
我一身正气怎能输2 小时前
游戏大厂A*寻路优化秘籍:流畅不卡顿
人工智能·游戏
johnny2333 小时前
AI工作流编排平台
人工智能
百***35483 小时前
DeepSeek在情感分析中的细粒度识别
人工智能
Qzkj6664 小时前
从规则到智能:企业数据分类分级的先进实践与自动化转型
大数据·人工智能·自动化