NLP论文

  1. BERT(bidirectional encoder representations from transformer)是谷歌公司发明的,基于自注意力机制的nlp模型。有预训练好的模型,并且开源的供所有人去做调优。是2018年的时候最优秀的nlp模型。

训练方式:自编码(Autoencoding)

预测目标:给定上下文,预测其中的一个或多个缺失单词

输入处理:双向,可以同时考虑一个词的左右上下文

适用场景:适合理解上下文,有助于信息提取、问答系统、情感分析等

架构:基于Transformer的编码器

语言模型:判别式(Discriminative)

优点:对上下文理解能力较强

缺点:生成的文本连贯性较弱

GitHub - google-research/bert: TensorFlow code and pre-trained models for BERT

GitHub - ymcui/Chinese-BERT-wwm: Pre-Training with Whole Word Masking for Chinese BERT(中文BERT-wwm系列模型)

  1. GPT(Generative Pretrained Transformer)

训练方式:自回归(Autoregressive)

预测目标:在给定前面的单词时,预测下一个单词

输入处理:单向(从左往右或者从右往左)

适用场景:适合生成式任务,如文章生成、诗歌创作等

架构:基于Transformer的解码器

语言模型:生成式(Generative)

优点:预测的连贯性较强

缺点:对上下文理解能力相对较弱

  1. T5

  2. Bart

可以去仔细阅读的文章如下:(待读)

  1. Attention is all you need

  2. BERT:Pre-training of Deep Bidirectional Transformer for language understanding

  3. GPT体验

https://poe.com/

相关推荐
机器之心15 小时前
100美元、8000行代码手搓ChatGPT,Karpathy最新开源项目爆火,一夜近5k star
人工智能·openai
RTC老炮15 小时前
webrtc弱网-BitrateEstimator类源码分析与算法原理
网络·人工智能·算法·机器学习·webrtc
星期天要睡觉15 小时前
计算机视觉(opencv)——基于 MediaPipe 的手势识别系统
人工智能·opencv·计算机视觉
三年呀15 小时前
指纹技术深度剖析:从原理到实践的全方位探索
图像处理·人工智能·计算机视觉·指纹识别·生物识别技术·安全算法
学习的周周啊15 小时前
一人AI自动化开发体系(Cursor 驱动):从需求到上线的全流程闭环与实战清单
运维·人工智能·自动化·ai编程·全栈·devops·cursor
后端小肥肠16 小时前
明星漫画总画不像?用 Coze +即梦 4 工作流,素描风漫画3分钟搞定,小白也能上手
人工智能·aigc·coze
flay16 小时前
5个Claude实战项目从0到1:自动化、客服机器人、代码审查
人工智能
flay16 小时前
Claude API完全指南:从入门到实战
人工智能
用户51914958484516 小时前
OAuth/OpenID Connect安全测试全指南
人工智能·aigc
初级炼丹师(爱说实话版)16 小时前
PGLRNet论文笔记
人工智能·深度学习·计算机视觉