DP-GAN-判别器代码

将输出的rgb作为输入,输入到判别器中。接着执行一个for循环,看一下body_down列表的组成和x经过body_down之后的值。

body_down是由残差块D组成的列表:

残差块的参数为:(3,128),(128,128),(128,256),(256,256),(256,512),(512,512)/-1,根据i==0,判断first参数的True或者False。

残差块组成:

x首先进过shortcut。假设执行第一次for循环,通道(3,128)/-1/True.

将RGB下采样两倍。

接着in=3,out=128,learned_shortcut=True。

x再经过一个卷积:

接着输出x。执行完shortcut再执行卷积:

conv1输出一个mid_layer,conv2输出最终的out.

因为x在开始进行了下采样,为了能够相加,这里也对dx进下采样。

接着执行第二个块,输入和输出通道都是128.只执行下采样两倍。

后面的四个根据通道是否相等只执行如下操作:

这样encoder_res里面有六个值,将第四层和第六层输出放在dis_list中:

接着取出dis_list进行处理:

self.dis列表里面存放了两个nn.Sequential,分别处理dis_list的第一第二个。

python 复制代码
        self.dis = nn.ModuleList([
                    nn.Sequential(
                            nn.Conv2d(256, 64, 3, padding=1, stride=2),
                            nn.LeakyReLU(0.2, False),
                            nn.Conv2d(64, 64, 3, padding=1),
                            nn.BatchNorm2d(64),
                            nn.LeakyReLU(0.2, False),
                            nn.Conv2d(64, 64, 3, padding=1),
                            nn.BatchNorm2d(64),
                            nn.LeakyReLU(0.2, False),
                            nn.Conv2d(64, 64, 3, padding=1),
                            nn.BatchNorm2d(64),
                            nn.LeakyReLU(0.2, False),
                            nn.Conv2d(64, 1, 3, padding=1)
                        ),
                    nn.Sequential(
                            nn.Conv2d(512, 64, 3, padding=1, stride=2),
                            nn.LeakyReLU(0.2, False),
                            nn.Conv2d(64, 64, 3, padding=1),
                            nn.BatchNorm2d(64),
                            nn.LeakyReLU(0.2, False),
                            nn.Conv2d(64, 64, 3, padding=1),
                            nn.BatchNorm2d(64),
                            nn.LeakyReLU(0.2, False),
                            nn.Conv2d(64, 64, 3, padding=1),
                            nn.BatchNorm2d(64),
                            nn.LeakyReLU(0.2, False),
                            nn.Conv2d(64, 1, 3, padding=1)
                        )
            ])

在Sequential内部,首先将输入下采样两倍,然后三个卷积进行特征提取操作,最后卷积输除通道为1,输出Fake 或者real的概率。对应于:

接着将encoder最后一个输出作为decoder输入进行上采样:

残差块参数为:(512,512)/1,将输入上采样两倍。

剩下的五次卷积,分别倒着取列表里面的通道:

将decoder的值和encoder拼接,上采样6次,添加到return_feats列表中。

将最后一层输出值进过一个卷积,输出通道为类别通道数:

最后将最后一层输出值,encoder两个中间变量值,decoder的5个上采样中间值作为输出。

相关推荐
道友老李9 分钟前
【自然语言处理(NLP)】Bahdanau 注意力(Bahdanau Attention)原理及代码实现
人工智能·自然语言处理
天一生水water32 分钟前
机理模型与数据模型融合的方式
人工智能
Naion36 分钟前
吴恩达深度学习——优化神经网络
人工智能·深度学习·神经网络
几道之旅39 分钟前
windows下玩转vllm:vllm简介
人工智能·python
道友老李1 小时前
【自然语言处理(NLP)】生成词向量:ELMo(Embedded from Language Models)原理及应用
人工智能·自然语言处理
江瀚视野1 小时前
苹果再度砍掉AR眼镜项目?AR真的是伪风口吗?
人工智能
我的青春不太冷1 小时前
【OpenCV实战】基于 OpenCV 的多尺度与模板匹配目标跟踪设计与实现
人工智能·opencv·目标跟踪·模板匹配
有续技术1 小时前
DEEPSEKK GPT等AI体的出现如何重构工厂数字化架构:从设备控制到ERP MES系统的全面优化
人工智能·gpt·重构
番茄灭世神1 小时前
使用DeepSeek的技巧笔记
人工智能·ai·deepseek
relis2 小时前
编程AI深度实战:大模型哪个好? Mistral vs Qwen vs Deepseek vs Llama
人工智能·llama·qwen·ai大模型·开源模型·deepseek·codestral