opencv的DNN模块里

复制代码
import cv2

# 读取输入图像
image = cv2.imread('img_1.png')
image = cv2.resize(image, (450, 600))
# 显示输入图像
cv2.imshow('yuan tu', image)
cv2.waitKey(0)

# ------图片预处理------
# 获取图像尺寸
(h, w) = image.shape[:2]

# 从原始图像构建一个符合人工神经网络输入格式的四维块 (blob)
# 参数:
#     image: 输入图像
#     scalefactor: 对图像内的数据进行缩放的比例因子 (每个像素值 * scalefactor),默认为1
#     size: 控制blob的宽度和高度,这里设置为原图的尺寸 (w, h)
#     mean: 从每个通道减去的均值。(0, 0, 0)表示不进行均值减法
#     swapRB: OpenCV默认使用BGR通道,而模型通常使用RGB。此处设为False不交换通道,请根据模型要求调整
#     crop: 如果为True,则在调整大小后进行居中裁剪。此处为False
# 返回值 blob: 一个四维数据,布局为 [N, C, H, W] (批大小, 通道数, 高度, 宽度)
blob = cv2.dnn.blobFromImage(image, scalefactor=1.0, size=(w, h), mean=(0, 0, 0), swapRB=False, crop=False)

# 加载模型
# 使用 readNetFromTorch 加载 PyTorch 格式的模型文件 (.t7)
net = cv2.dnn.readNetFromTorch(r'candy.t7')

# 将预处理后的blob设置为网络的输入
net.setInput(blob)

# 对输入图像进行前向传播,得到输出结果
# 输出out是四维的,形状为 [1, C, H, W] (1张图片, 通道数, 高度, 宽度)
out = net.forward()

# 输出处理
# 重塑形状(忽略第1维的batch size),4维[B, C, H, W]变3维[C, H, W]
out_new = out.reshape(out.shape[1], out.shape[2], out.shape[3])

# 对输出的数组进行归一化处理,将其值范围缩放到0-1之间 (使用MIN-MAX归一化)
cv2.normalize(out_new, out_new, alpha=0, beta=1, norm_type=cv2.NORM_MINMAX)

# 转置输出结果的维度,从 [C, H, W] 转换为 [H, W, C] 以便OpenCV显示
result = out_new.transpose(1, 2, 0)

# 显示转换后的风格迁移图像
cv2.imshow('Stylized Image', result)
cv2.waitKey(0)
cv2.destroyAllWindows()

代码概述

这段代码实现了基于深度学习的图像风格迁移功能,使用OpenCV的dnn模块加载预训练的PyTorch模型,将艺术风格应用到输入图像上。

代码逐段解析

1. 图像读取与预处理

复制代码
import cv2

# 读取输入图像
image = cv2.imread('img_1.png')
image = cv2.resize(image, (450, 600))
# 显示输入图像
cv2.imshow('yuan tu', image)
cv2.waitKey(0)
  • cv2.imread() 读取图像文件
  • cv2.resize() 调整图像尺寸为450×600像素,统一输入尺寸有助于处理
  • cv2.imshow()cv2.waitKey(0) 显示原始图像并等待按键继续

2. 构建神经网络输入Blob

复制代码
# 获取图像尺寸
(h, w) = image.shape[:2]

# 从原始图像构建一个符合人工神经网络输入格式的四维块 (blob)
blob = cv2.dnn.blobFromImage(image, scalefactor=1.0, size=(w, h), 
                            mean=(0, 0, 0), swapRB=False, crop=False)

cv2.dnn.blobFromImage() 是关键函数,参数详解:

  • image: 输入图像
  • scalefactor=1.0: 像素值缩放因子(1.0表示不缩放)
  • size=(w, h): 输出blob的尺寸,此处保持原图尺寸
  • mean=(0, 0, 0): 各通道的均值减法值(0表示不进行均值减法)
  • swapRB=False: 是否交换红蓝通道(False表示保持BGR格式)
  • crop=False: 是否进行中心裁剪(False表示不裁剪)

此函数生成的blob维度为[1, 3, H, W],符合深度学习模型的输入要求。

3. 加载与配置模型

复制代码
# 使用 readNetFromTorch 加载 PyTorch 格式的模型文件 (.t7)
net = cv2.dnn.readNetFromTorch(r'candy.t7')

# 将预处理后的blob设置为网络的输入
net.setInput(blob)
  • cv2.dnn.readNetFromTorch() 加载PyTorch格式的预训练模型
  • net.setInput(blob) 将预处理后的数据设置为网络输入

4. 前向传播与输出处理

复制代码
# 对输入图像进行前向传播,得到输出结果
out = net.forward()

# 输出处理:重塑形状(忽略第1维的batch size)
out_new = out.reshape(out.shape[1], out.shape[2], out.shape[3])

# 对输出的数组进行归一化处理
cv2.normalize(out_new, out_new, alpha=0, beta=1, norm_type=cv2.NORM_MINMAX)

# 转置输出结果的维度,从 [C, H, W] 转换为 [H, W, C] 以便OpenCV显示
result = out_new.transpose(1, 2, 0)
  • net.forward() 执行前向传播,得到风格迁移结果
  • reshape() 操作将4维输出[B, C, H, W]转换为3维[C, H, W]
  • cv2.normalize() 使用MIN-MAX归一化将值范围缩放到[0,1]区间
  • transpose() 将维度从通道优先[C, H, W]转换为OpenCV显示格式[H, W, C]

5. 结果显示

复制代码
# 显示转换后的风格迁移图像
cv2.imshow('Stylized Image', result)
cv2.waitKey(0)
cv2.destroyAllWindows()

显示最终的风格迁移结果,并等待用户按键后关闭所有窗口。

相关推荐
Axis tech2 小时前
IROS 2025将于10月在中国杭州举办,爱迪斯通携手机器人训练与遥操作专家XSENS、HAPTION参展
人工智能·机器学习
文心快码 Baidu Comate7 小时前
您的前端开发智能工作流待升级,查收最新 Figma2Code!
人工智能·ai编程·文心快码·ai ide·comate ai ide
AIminminHu8 小时前
实战项目(十二:《AI画质增强与LED驱动控制:一场关于‘创造’与‘还原’的对话》):从LED冬奥会、奥运会及春晚等大屏,到手机小屏,快来挖一挖里面都有什么
人工智能·智能手机
TechNomad9 小时前
七、OpenCV中的视频的读写
opencv
skywalk81639 小时前
在Windows10 Edge浏览器里安装DeepSider大模型插件来免费使用gpt-4o、NanoBanana等AI大模型
人工智能
汽车仪器仪表相关领域9 小时前
工业安全新利器:NHQT-4四合一检测线系统深度解析
网络·数据库·人工智能·安全·汽车·检测站·汽车检测
有Li9 小时前
基于神经控制微分方程的采集无关深度学习用于定量MRI参数估计|文献速递-文献分享
论文阅读·人工智能·文献·医学生
taxunjishu10 小时前
DeviceNet 转 Profinet:西门子 S7 - 1500 PLC 与欧姆龙伺服电机在汽车焊装生产线夹具快速切换定位的通讯配置案例
人工智能·区块链·工业物联网·工业自动化·profinet·devicenet·总线协议转换网关
脑极体10 小时前
华为,让金融智能体月映千江
人工智能·华为·金融