NLP论文

  1. BERT(bidirectional encoder representations from transformer)是谷歌公司发明的,基于自注意力机制的nlp模型。有预训练好的模型,并且开源的供所有人去做调优。是2018年的时候最优秀的nlp模型。

训练方式:自编码(Autoencoding)

预测目标:给定上下文,预测其中的一个或多个缺失单词

输入处理:双向,可以同时考虑一个词的左右上下文

适用场景:适合理解上下文,有助于信息提取、问答系统、情感分析等

架构:基于Transformer的编码器

语言模型:判别式(Discriminative)

优点:对上下文理解能力较强

缺点:生成的文本连贯性较弱

GitHub - google-research/bert: TensorFlow code and pre-trained models for BERT

GitHub - ymcui/Chinese-BERT-wwm: Pre-Training with Whole Word Masking for Chinese BERT(中文BERT-wwm系列模型)

  1. GPT(Generative Pretrained Transformer)

训练方式:自回归(Autoregressive)

预测目标:在给定前面的单词时,预测下一个单词

输入处理:单向(从左往右或者从右往左)

适用场景:适合生成式任务,如文章生成、诗歌创作等

架构:基于Transformer的解码器

语言模型:生成式(Generative)

优点:预测的连贯性较强

缺点:对上下文理解能力相对较弱

  1. T5

  2. Bart

可以去仔细阅读的文章如下:(待读)

  1. Attention is all you need

  2. BERT:Pre-training of Deep Bidirectional Transformer for language understanding

  3. GPT体验

https://poe.com/

相关推荐
艾醒(AiXing-w)11 分钟前
探索大语言模型(LLM):参数量背后的“黄金公式”与Scaling Law的启示
人工智能·语言模型·自然语言处理
极光JIGUANG12 分钟前
GPTBots在AI大语言模型应用中敏感数据匿名化探索和实践
人工智能
飞哥数智坊13 分钟前
AI生图还在等?混元图像2.0让你“实时”见效果
人工智能
nvvas42 分钟前
AI互联网辅助工具
人工智能·chatgpt
蹦蹦跳跳真可爱58942 分钟前
Python----目标检测(《SSD: Single Shot MultiBox Detector》论文和SSD的原理与网络结构)
人工智能·python·深度学习·神经网络·目标检测·计算机视觉
love530love1 小时前
Windows 下部署 SUNA 项目:虚拟环境尝试与最终方案
前端·人工智能·windows·后端·docker·rust·开源
hahaha60161 小时前
农业机器人的开发
人工智能·计算机视觉
xiaoli23271 小时前
机器学习——SVM
人工智能·机器学习·支持向量机
智驱力人工智能1 小时前
高密爆炸警钟长鸣:AI为化工安全戴上“智能护盾”
人工智能·算法·安全·重构·边缘计算·高密爆炸·高密化工厂
元闰子1 小时前
AI Agent需要什么样的数据库?
数据库·人工智能·后端