生成式大语言模型论文导读

当下,最火的人工智能无疑就是生成式大模型,包括纯大语言模型和多模态模型,所以本次也抱着学习的态度,以大模型发展的时间线来对主要节点的一些生成式语言模型的论文进行分享(论文和分享内容会动态更新)。

分享目录

transformer原理-Attention Is All You Need -2017(待补充)
GPT-1原理-Improving Language Understanding by Generative Pre-Training -2018
BERT原理-Pre-training of Deep Bidirectional Transformers for Language Understanding -2018
GPT-2原理-Language Models are Unsupervised Multitask Learners -2019

T5原理-Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer -2019(待补充)

GPT-3原理-Language Models are Few-Shot Learners -2019(待补充)

【动态更新中】

相关推荐
mwq301235 分钟前
AI的“物理学”:揭秘GPT-3背后改变一切的“缩放定律”
人工智能
DP+GISer13 分钟前
自己制作遥感深度学习数据集进行遥感深度学习地物分类-试读
人工智能·深度学习·分类
victory043115 分钟前
TODO 分类任务指标计算和展示 准确率 F1 Recall
人工智能·机器学习·分类
rengang6615 分钟前
07-逻辑回归:分析用于分类问题的逻辑回归模型及其数学原理
人工智能·算法·机器学习·分类·逻辑回归
居7然29 分钟前
京东开源王炸!JoyAgent-JDGenie如何重新定义智能体开发?
人工智能·开源·大模型·mcp
老兵发新帖34 分钟前
归一化分析3
人工智能
QYR_111 小时前
2025-2031年全球 MT 插芯市场全景分析报告:技术演进、供需格局与投资前景
人工智能·自然语言处理·机器翻译
mwq301231 小时前
从GPT-1到GPT-2的性能飞跃及其驱动因素分析
人工智能
paid槮1 小时前
《深度学习》【项目】自然语言处理——情感分析 <上>
深度学习·自然语言处理·easyui