NLP论文

  1. BERT(bidirectional encoder representations from transformer)是谷歌公司发明的,基于自注意力机制的nlp模型。有预训练好的模型,并且开源的供所有人去做调优。是2018年的时候最优秀的nlp模型。

训练方式:自编码(Autoencoding)

预测目标:给定上下文,预测其中的一个或多个缺失单词

输入处理:双向,可以同时考虑一个词的左右上下文

适用场景:适合理解上下文,有助于信息提取、问答系统、情感分析等

架构:基于Transformer的编码器

语言模型:判别式(Discriminative)

优点:对上下文理解能力较强

缺点:生成的文本连贯性较弱

GitHub - google-research/bert: TensorFlow code and pre-trained models for BERT

GitHub - ymcui/Chinese-BERT-wwm: Pre-Training with Whole Word Masking for Chinese BERT(中文BERT-wwm系列模型)

  1. GPT(Generative Pretrained Transformer)

训练方式:自回归(Autoregressive)

预测目标:在给定前面的单词时,预测下一个单词

输入处理:单向(从左往右或者从右往左)

适用场景:适合生成式任务,如文章生成、诗歌创作等

架构:基于Transformer的解码器

语言模型:生成式(Generative)

优点:预测的连贯性较强

缺点:对上下文理解能力相对较弱

  1. T5

  2. Bart

可以去仔细阅读的文章如下:(待读)

  1. Attention is all you need

  2. BERT:Pre-training of Deep Bidirectional Transformer for language understanding

  3. GPT体验

https://poe.com/

相关推荐
科技快报1 分钟前
联想现场演示天禧AI 3.5多模态交互,YOGA Pro 16 Aura AI元启版提供坚实算力支撑
人工智能·microsoft
week_泽1 分钟前
opencv特征检测、关键点、角点检测、特征点检测
人工智能·opencv·计算机视觉
Dev7z5 分钟前
基于MATLAB的HSV颜色特征杂草图像识别系统设计与实现
人工智能
Ydwlcloud5 分钟前
AWS国际版新账号注册隐藏优惠全解析:2026年实测避坑指南
大数据·服务器·人工智能·云计算·aws
————A6 分钟前
从 RAG 走不通开始:设备运维场景下的一次诊断系统重构思考
大数据·数据库·人工智能
Coder个人博客6 分钟前
Apollo VehicleState 车辆状态模块接口调用流程图与源码分析
人工智能·自动驾驶·apollo
啊阿狸不会拉杆8 分钟前
《数字图像处理》实验7-图像特征提取
图像处理·人工智能·机器学习·计算机视觉·数字图像处理
Elastic 中国社区官方博客10 分钟前
Elasticsearch:2025年的企业搜索 - 是否需要进行抓取?
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
程序员学习Chat12 分钟前
计算机视觉Transformer-1 基础结构
人工智能·计算机视觉·transformer
HyperAI超神经14 分钟前
【vLLM 学习】Profiling
人工智能·深度学习·学习·cpu·gpu·编程语言·vllm