昇思MindSpore第四课---GPT实现情感分类

1. GPT的概念

GPT 系列是 OpenAI 的一系列预训练模型,GPT 的全称是 Generative Pre-Trained Transformer,顾名思义,GPT 的目标是通过Transformer,使用预训练技术得到通用的语言模型。和BERT类似,GPT-1同样采取pre-train +fine-tune的思路:先基于大量未标注语料数据进行预训练,后基于少量标注数据进行微调。

2 实践

2.1 配置环境

安装`mindnlp 套件

2.2 任务训练

OpenAIGPTForSequenceClassification的一些权重没有从openai-gpt的模型检查点初始化,而是重新初始化。

2.3 训练完成

3. 感悟

GPT也是输入句子或者句子对的,并且GPT添加了special tokens。GPT是由Decoder Layer堆叠,Decoder Layer的组成与Transformer Decoder Layer是相似的,不过是没有计算Encode输出与Decoder输入之间的注意力分数multi-head attention的。

相对于BERT,GPT更加注重语句的生成,也就是根据签名的内容预测下一个词是什么。也就是说,GPT更适合生成式的下游任务。

经过这一节课,对于Transformer、BERT以及GPT的理解更加的深刻,对于生成式的大模型有了一个比较直观的认识,对于大模型是如何理解人类语言的方法有了一个初步的认识。而且对模型的微调等概念与方法也有了一个直观地认识。

相关推荐
玄同7651 天前
Python 流程控制:LLM 批量推理与 API 限流处理
服务器·人工智能·python·深度学习·自然语言处理·数据挖掘·知识图谱
_codemonster1 天前
AI大模型入门到实战系列(十八)微调模型实现分类
人工智能·机器学习·分类
计算机程序设计小李同学1 天前
基于贝叶斯分类算法的垃圾邮件筛选器开发
人工智能·分类·数据挖掘
hunteritself1 天前
Adobe 把 Photoshop 搬进了 ChatGPT,免费的
gpt·机器学习·ui·adobe·chatgpt·智能手机·photoshop
天呐草莓2 天前
集成学习 (ensemble learning)
人工智能·python·深度学习·算法·机器学习·数据挖掘·集成学习
建行一世2 天前
【Windows笔记本大模型“傻瓜式”教程】在Dify的workflow中对接GPT_SoVITS实现对原神芙宁娜的语音生成
windows·gpt·ai
是店小二呀2 天前
昇腾 NPU 环境下 GPT-2 模型本地部署全指南(含踩坑排错)
gpt·npu
十三画者2 天前
【文献分享】PepQueryMHC:基于免疫肽组学数据实现肿瘤抗原的快速全面筛选
数据挖掘·数据分析
QuiteCoder2 天前
机器学习视角下的鸢尾花形态学分类与自动化流水线架构研究报告
机器学习·分类·自动化
超自然祈祷2 天前
从数据挖掘到人工智能的脉络地图
人工智能·机器学习·数据挖掘·数据分析