输入序列太长 gan CGAN

transformer序列长度大导致计算复杂度高

GAN

  1. 训练过程

第一阶段:固定「判别器D」,训练「生成器G」。使用一个性能不错的判别器,G不断生成"假数据",然后给这个D去判断。开始时候,G还很弱,所以很容易被判别出来。但随着训练不断进行,G技能不断提升,最终骗过了D。这个时候,D基本属于"瞎猜"的状态,判断是否为假数据的概率为50%。

第二阶段:固定「生成器G」,训练「判别器D」。当通过了第一阶段,继续训练G就没有意义了。这时候我们固定G,然后开始训练D。通过不断训练,D提高了自己的鉴别能力,最终他可以准确判断出假数据。

重复第一阶段、第二阶段。通过不断的循环,「生成器G」和「判别器D」的能力都越来越强。最终我们得到了一个效果非常好的「生成器G」,就可以用它来生成数据。

CGAN

CGAN的核心思想在于将额外的条件信息引入到原始GAN的架构中,使得生成器和判别器在训练过程中同时考虑条件变量。

相关推荐
Shockang17 分钟前
机器学习的一百个概念(4)下采样
人工智能·机器学习
Shockang21 分钟前
机器学习的一百个概念(3)上采样
人工智能·机器学习
HR Zhou44 分钟前
群体智能优化算法-鹈鹕优化算法(Pelican Optimization Algorithm, POA,含Matlab源代码)
算法·机器学习·matlab·优化·群体智能优化
智源社区1 小时前
PyTorch Day 首次登陆 2025 智源大会!论文征集开启
人工智能·pytorch·python·深度学习·机器学习
神经星星2 小时前
入选CVPR 2025!深圳大学团队等提出EchoONE,可精准分割多切面超声心动图
人工智能·深度学习·机器学习
小白狮ww3 小时前
支持视频检测, YOLOv12 目标检测刷新速度、精度双记录
人工智能·深度学习·机器学习
Suc_zhan4 小时前
实验二 如何将随机森林算法应用于激酶抑制剂分类任务
python·算法·随机森林·机器学习
0泡4 小时前
机器学习、深度学习和神经网络
深度学习·神经网络·机器学习·ai
唔皇万睡万万睡5 小时前
Matlab人脸识别考勤系统【PCA(主成分分析)+ SVM(支持向量机)】
机器学习·支持向量机·matlab
Fuction.5 小时前
聚类注意点
人工智能·python·机器学习·kmeans·聚类