输入序列太长 gan CGAN

transformer序列长度大导致计算复杂度高

GAN

  1. 训练过程

第一阶段:固定「判别器D」,训练「生成器G」。使用一个性能不错的判别器,G不断生成"假数据",然后给这个D去判断。开始时候,G还很弱,所以很容易被判别出来。但随着训练不断进行,G技能不断提升,最终骗过了D。这个时候,D基本属于"瞎猜"的状态,判断是否为假数据的概率为50%。

第二阶段:固定「生成器G」,训练「判别器D」。当通过了第一阶段,继续训练G就没有意义了。这时候我们固定G,然后开始训练D。通过不断训练,D提高了自己的鉴别能力,最终他可以准确判断出假数据。

重复第一阶段、第二阶段。通过不断的循环,「生成器G」和「判别器D」的能力都越来越强。最终我们得到了一个效果非常好的「生成器G」,就可以用它来生成数据。

CGAN

CGAN的核心思想在于将额外的条件信息引入到原始GAN的架构中,使得生成器和判别器在训练过程中同时考虑条件变量。

相关推荐
明月照山海-7 分钟前
机器学习周报三十
人工智能·机器学习·计算机视觉
PeterClerk30 分钟前
RAG 评估入门:Recall@k、MRR、nDCG、Faithfulness
人工智能·深度学习·机器学习·语言模型·自然语言处理
人工智能培训1 小时前
10分钟了解向量数据库(4)
人工智能·机器学习·数据挖掘·深度学习入门·深度学习证书·ai培训证书·ai工程师证书
绿洲-_-1 小时前
MBHM_DATASET_GUIDE
深度学习·机器学习
万行1 小时前
机器学习&第二章线性回归
人工智能·python·机器学习·线性回归
全栈小精灵2 小时前
Winform入门
开发语言·机器学习·c#
万行2 小时前
机器学习&第四章支持向量机
人工智能·机器学习·支持向量机
larance2 小时前
机器学习的一些基本知识
人工智能·机器学习
做科研的周师兄2 小时前
【MATLAB 实战】栅格数据 K-Means 聚类(分块处理版)—— 解决大数据内存溢出、运行卡顿问题
人工智能·算法·机器学习·matlab·kmeans·聚类
万行3 小时前
机器学习&第五章生成式生成器
人工智能·python·算法·机器学习