李宏毅hw-6利用GAN生成动漫图像

一、查漏补缺、熟能生巧:

1.什么是转置卷积convTranspose、以及这种转置卷积怎么使用:

(1)具体的原理直接看李沐老师的那个演示,非常清晰:

47 转置卷积【动手学深度学习v2】_哔哩哔哩_bilibili

(2)对于这个代码

复制代码
 def dconv_bn_relu(self, in_dim, out_dim):
        return nn.Sequential(
            nn.ConvTranspose2d(in_dim, out_dim, kernel_size=5, stride=2,
                               padding=2, output_padding=1, bias=False),        #double height and width
            nn.BatchNorm2d(out_dim),
            nn.ReLU(True)
        )

来自GPT的说法:

2.关于weight_init和self.apply()
3.关于G(z_samples)部分的一个不理解的地方:

二、DCGAN , WGAN ,WGAN_GP (三种的5个epoch的效果对比):

1.DCGAN版本:一般般,直接用助教的sample_code即可,
2.对于WGAN的代码:

也就是在DCGAN中进行这种修改就好了

效果:

3.采用WAGN-GP:

需要做的修改:

PyTorch-GAN/implementations/wgan_gp/wgan_gp.py at master · eriklindernoren/PyTorch-GAN (github.com)

主要是写一个函数,然后把weight_clam那个for循环注释掉,其他的就按照助教给的注释来就好了

复制代码
def compute_gradient_penalty(self,D, real_samples, fake_samples):    
        
        Tensor = torch.cuda.FloatTensor  #if cuda else torch.FloatTensor
        """
        #这里需要参考那个link引入gradient penalty function
        Implement gradient penalty function
        """
        """Calculates the gradient penalty loss for WGAN GP"""
        # Random weight term for interpolation between real and fake samples
        alpha = Tensor(np.random.random((real_samples.size(0), 1, 1, 1)))
        # Get random interpolation between real and fake samples
        interpolates = (alpha * real_samples + ((1 - alpha) * fake_samples)).requires_grad_(True)
        d_interpolates = D(interpolates)
        
        
        
        fake = Variable(Tensor(d_interpolates.shape).fill_(1.0), requires_grad=False)

        # Get gradient w.r.t. interpolates
        gradients = autograd.grad(
            outputs=d_interpolates,
            inputs=interpolates,
            grad_outputs=fake,
            create_graph=True,
            retain_graph=True,
            only_inputs=True,
        )[0]
        gradients = gradients.view(gradients.size(0), -1)
        gradient_penalty = ((gradients.norm(2, dim=1) - 1) ** 2).mean()
        return gradient_penalty

效果:

中午睡觉的时候,用这个kaggle来train一下这个WGAN-GP,

直接设置critic =5 , epoch =1000 试一试

很可惜,第36个epoch的时候就崩掉了,不过生成的效果还不错,比之前的都要好一些,

所以,估计只要epoch足够多,用WGAN-GP可以生成比较好的动漫人脸的

相关推荐
Black蜡笔小新3 分钟前
自动化AI算法训练服务器DLTM企业级AI模型工作站构筑企业AI自主可控新模式
人工智能·算法·自动化
硅基流动4 分钟前
硅基流动上线百度 ERNIE-Image
人工智能·百度
. . . . .5 分钟前
Claude Code 插件市场开发及注意事项
人工智能·gitcode
三产5 分钟前
Hermes 教程 04:多平台网关
人工智能
坐望云起5 分钟前
机器学习笔记 - 基于C++的深度学习 四、实现梯度下降
笔记·深度学习·机器学习
Zldaisy3d7 分钟前
上交大特材所 l 同步辐射CT与机器学习驱动增材制造气雾化粉末表征及工艺优化
人工智能·机器学习·制造
源码之家8 分钟前
计算机毕业设计:Python基于知识图谱的医疗问答系统 Neo4j 机器学习 BERT 深度学习 ECharts(建议收藏)✅
python·深度学习·机器学习·信息可视化·数据分析·知识图谱·课程设计
2401_832298108 分钟前
低成本算力革命,OpenClaw适配低配硬件,普及个人级智能体
人工智能
沪漂阿龙8 分钟前
面试题:传统序列模型详解——RNN、LSTM、GRU 原理、区别、优缺点一文讲透
人工智能·rnn·深度学习·gru·lstm
灵机一物9 分钟前
灵机一物AI原生电商小程序、PC端(已上线)-技术解析:原生实时交互 AI 模型 TML-Interaction-Small,如何颠覆传统大模型交互范式
人工智能·交互