DP-GAN-判别器代码

将输出的rgb作为输入,输入到判别器中。接着执行一个for循环,看一下body_down列表的组成和x经过body_down之后的值。

body_down是由残差块D组成的列表:

残差块的参数为:(3,128),(128,128),(128,256),(256,256),(256,512),(512,512)/-1,根据i==0,判断first参数的True或者False。

残差块组成:

x首先进过shortcut。假设执行第一次for循环,通道(3,128)/-1/True.

将RGB下采样两倍。

接着in=3,out=128,learned_shortcut=True。

x再经过一个卷积:

接着输出x。执行完shortcut再执行卷积:

conv1输出一个mid_layer,conv2输出最终的out.

因为x在开始进行了下采样,为了能够相加,这里也对dx进下采样。

接着执行第二个块,输入和输出通道都是128.只执行下采样两倍。

后面的四个根据通道是否相等只执行如下操作:

这样encoder_res里面有六个值,将第四层和第六层输出放在dis_list中:

接着取出dis_list进行处理:

self.dis列表里面存放了两个nn.Sequential,分别处理dis_list的第一第二个。

python 复制代码
        self.dis = nn.ModuleList([
                    nn.Sequential(
                            nn.Conv2d(256, 64, 3, padding=1, stride=2),
                            nn.LeakyReLU(0.2, False),
                            nn.Conv2d(64, 64, 3, padding=1),
                            nn.BatchNorm2d(64),
                            nn.LeakyReLU(0.2, False),
                            nn.Conv2d(64, 64, 3, padding=1),
                            nn.BatchNorm2d(64),
                            nn.LeakyReLU(0.2, False),
                            nn.Conv2d(64, 64, 3, padding=1),
                            nn.BatchNorm2d(64),
                            nn.LeakyReLU(0.2, False),
                            nn.Conv2d(64, 1, 3, padding=1)
                        ),
                    nn.Sequential(
                            nn.Conv2d(512, 64, 3, padding=1, stride=2),
                            nn.LeakyReLU(0.2, False),
                            nn.Conv2d(64, 64, 3, padding=1),
                            nn.BatchNorm2d(64),
                            nn.LeakyReLU(0.2, False),
                            nn.Conv2d(64, 64, 3, padding=1),
                            nn.BatchNorm2d(64),
                            nn.LeakyReLU(0.2, False),
                            nn.Conv2d(64, 64, 3, padding=1),
                            nn.BatchNorm2d(64),
                            nn.LeakyReLU(0.2, False),
                            nn.Conv2d(64, 1, 3, padding=1)
                        )
            ])

在Sequential内部,首先将输入下采样两倍,然后三个卷积进行特征提取操作,最后卷积输除通道为1,输出Fake 或者real的概率。对应于:

接着将encoder最后一个输出作为decoder输入进行上采样:

残差块参数为:(512,512)/1,将输入上采样两倍。

剩下的五次卷积,分别倒着取列表里面的通道:

将decoder的值和encoder拼接,上采样6次,添加到return_feats列表中。

将最后一层输出值进过一个卷积,输出通道为类别通道数:

最后将最后一层输出值,encoder两个中间变量值,decoder的5个上采样中间值作为输出。

相关推荐
卷Java3 分钟前
MCP协议原理与实战:让大模型真正「能动」起来
人工智能·aigc
Captain_Data3 分钟前
AI 12小时设计CPU完整解析:从219字到RISC-V内核的技术突破
人工智能·python·ai·大模型·芯片设计·risc-v
AI砖家5 分钟前
解剖 Claude Code:如何搭建一个企业级的私有化 AI 编程助手
前端·人工智能·ai编程
数智化精益手记局8 分钟前
仓库安灯管理系统的异常响应机制:破解仓库安灯管理系统的跨部门协同难题
大数据·数据结构·人工智能·制造·精益工程
每日综合9 分钟前
燕之屋“国家绿色工厂”隆重揭牌,以绿色智造赋能行业发展
人工智能
互联科技报13 分钟前
矩阵头部产品源码泄露超级编导超级智剪筷子科技拆解对比分享
人工智能
zhangshuang-peta14 分钟前
MCP 的终局形态:它会成为 AI 系统的“操作系统层”吗?
人工智能·ai agent·mcp·peta
qq_4112624218 分钟前
四博 AI 智能拍学机 / AI 智能音箱技术方案
人工智能·智能音箱
Gh0st_Lx24 分钟前
【6】持续学习方法概述:在数据集 B 上变强了,在数据集 A 上却暴跌?
人工智能·语言模型·transformer
前端摸鱼匠24 分钟前
【AI大模型春招面试题27】字节对编码(BPE)的分词过程?如何处理未登录词(OOV)?
人工智能·ai·面试·大模型·求职招聘