NLP论文

  1. BERT(bidirectional encoder representations from transformer)是谷歌公司发明的,基于自注意力机制的nlp模型。有预训练好的模型,并且开源的供所有人去做调优。是2018年的时候最优秀的nlp模型。

训练方式:自编码(Autoencoding)

预测目标:给定上下文,预测其中的一个或多个缺失单词

输入处理:双向,可以同时考虑一个词的左右上下文

适用场景:适合理解上下文,有助于信息提取、问答系统、情感分析等

架构:基于Transformer的编码器

语言模型:判别式(Discriminative)

优点:对上下文理解能力较强

缺点:生成的文本连贯性较弱

GitHub - google-research/bert: TensorFlow code and pre-trained models for BERT

GitHub - ymcui/Chinese-BERT-wwm: Pre-Training with Whole Word Masking for Chinese BERT(中文BERT-wwm系列模型)

  1. GPT(Generative Pretrained Transformer)

训练方式:自回归(Autoregressive)

预测目标:在给定前面的单词时,预测下一个单词

输入处理:单向(从左往右或者从右往左)

适用场景:适合生成式任务,如文章生成、诗歌创作等

架构:基于Transformer的解码器

语言模型:生成式(Generative)

优点:预测的连贯性较强

缺点:对上下文理解能力相对较弱

  1. T5

  2. Bart

可以去仔细阅读的文章如下:(待读)

  1. Attention is all you need

  2. BERT:Pre-training of Deep Bidirectional Transformer for language understanding

  3. GPT体验

https://poe.com/

相关推荐
通信仿真实验室31 分钟前
(15)衰落信道模型作用于信号是相乘还是卷积
开发语言·人工智能·算法·matlab
如果能为勤奋颁奖1 小时前
YOLO11改进|注意力机制篇|引入上下文锚注意力机制CAA
人工智能·深度学习·yolo
黄焖鸡能干四碗1 小时前
【需求分析】软件系统需求设计报告,需求分析报告,需求总结报告(原件PPT)
大数据·人工智能·安全·测试用例·需求分析
FL16238631291 小时前
[C++]使用C++部署yolov11目标检测的tensorrt模型支持图片视频推理windows测试通过
人工智能·yolo·目标检测
人生不如初见2 小时前
平台数据分类与聚类实验报告
人工智能·分类·数据挖掘·聚类
iiimZoey2 小时前
Dit架构 diffusion范式分类+应用
人工智能·python
唐小旭2 小时前
RL_足球教练
人工智能
winfredzhang2 小时前
如何使用Flair.ai实现模特换装效果
人工智能·换装·flair
程序员非鱼2 小时前
深度学习中的损失函数详解
人工智能·深度学习·计算机视觉·损失函数
SCBAiotAigc2 小时前
VSCode debug模式无法跳转进入内置模块
人工智能·vscode·python