opencv的DNN模块里

复制代码
import cv2

# 读取输入图像
image = cv2.imread('img_1.png')
image = cv2.resize(image, (450, 600))
# 显示输入图像
cv2.imshow('yuan tu', image)
cv2.waitKey(0)

# ------图片预处理------
# 获取图像尺寸
(h, w) = image.shape[:2]

# 从原始图像构建一个符合人工神经网络输入格式的四维块 (blob)
# 参数:
#     image: 输入图像
#     scalefactor: 对图像内的数据进行缩放的比例因子 (每个像素值 * scalefactor),默认为1
#     size: 控制blob的宽度和高度,这里设置为原图的尺寸 (w, h)
#     mean: 从每个通道减去的均值。(0, 0, 0)表示不进行均值减法
#     swapRB: OpenCV默认使用BGR通道,而模型通常使用RGB。此处设为False不交换通道,请根据模型要求调整
#     crop: 如果为True,则在调整大小后进行居中裁剪。此处为False
# 返回值 blob: 一个四维数据,布局为 [N, C, H, W] (批大小, 通道数, 高度, 宽度)
blob = cv2.dnn.blobFromImage(image, scalefactor=1.0, size=(w, h), mean=(0, 0, 0), swapRB=False, crop=False)

# 加载模型
# 使用 readNetFromTorch 加载 PyTorch 格式的模型文件 (.t7)
net = cv2.dnn.readNetFromTorch(r'candy.t7')

# 将预处理后的blob设置为网络的输入
net.setInput(blob)

# 对输入图像进行前向传播,得到输出结果
# 输出out是四维的,形状为 [1, C, H, W] (1张图片, 通道数, 高度, 宽度)
out = net.forward()

# 输出处理
# 重塑形状(忽略第1维的batch size),4维[B, C, H, W]变3维[C, H, W]
out_new = out.reshape(out.shape[1], out.shape[2], out.shape[3])

# 对输出的数组进行归一化处理,将其值范围缩放到0-1之间 (使用MIN-MAX归一化)
cv2.normalize(out_new, out_new, alpha=0, beta=1, norm_type=cv2.NORM_MINMAX)

# 转置输出结果的维度,从 [C, H, W] 转换为 [H, W, C] 以便OpenCV显示
result = out_new.transpose(1, 2, 0)

# 显示转换后的风格迁移图像
cv2.imshow('Stylized Image', result)
cv2.waitKey(0)
cv2.destroyAllWindows()

代码概述

这段代码实现了基于深度学习的图像风格迁移功能,使用OpenCV的dnn模块加载预训练的PyTorch模型,将艺术风格应用到输入图像上。

代码逐段解析

1. 图像读取与预处理

复制代码
import cv2

# 读取输入图像
image = cv2.imread('img_1.png')
image = cv2.resize(image, (450, 600))
# 显示输入图像
cv2.imshow('yuan tu', image)
cv2.waitKey(0)
  • cv2.imread() 读取图像文件
  • cv2.resize() 调整图像尺寸为450×600像素,统一输入尺寸有助于处理
  • cv2.imshow()cv2.waitKey(0) 显示原始图像并等待按键继续

2. 构建神经网络输入Blob

复制代码
# 获取图像尺寸
(h, w) = image.shape[:2]

# 从原始图像构建一个符合人工神经网络输入格式的四维块 (blob)
blob = cv2.dnn.blobFromImage(image, scalefactor=1.0, size=(w, h), 
                            mean=(0, 0, 0), swapRB=False, crop=False)

cv2.dnn.blobFromImage() 是关键函数,参数详解:

  • image: 输入图像
  • scalefactor=1.0: 像素值缩放因子(1.0表示不缩放)
  • size=(w, h): 输出blob的尺寸,此处保持原图尺寸
  • mean=(0, 0, 0): 各通道的均值减法值(0表示不进行均值减法)
  • swapRB=False: 是否交换红蓝通道(False表示保持BGR格式)
  • crop=False: 是否进行中心裁剪(False表示不裁剪)

此函数生成的blob维度为[1, 3, H, W],符合深度学习模型的输入要求。

3. 加载与配置模型

复制代码
# 使用 readNetFromTorch 加载 PyTorch 格式的模型文件 (.t7)
net = cv2.dnn.readNetFromTorch(r'candy.t7')

# 将预处理后的blob设置为网络的输入
net.setInput(blob)
  • cv2.dnn.readNetFromTorch() 加载PyTorch格式的预训练模型
  • net.setInput(blob) 将预处理后的数据设置为网络输入

4. 前向传播与输出处理

复制代码
# 对输入图像进行前向传播,得到输出结果
out = net.forward()

# 输出处理:重塑形状(忽略第1维的batch size)
out_new = out.reshape(out.shape[1], out.shape[2], out.shape[3])

# 对输出的数组进行归一化处理
cv2.normalize(out_new, out_new, alpha=0, beta=1, norm_type=cv2.NORM_MINMAX)

# 转置输出结果的维度,从 [C, H, W] 转换为 [H, W, C] 以便OpenCV显示
result = out_new.transpose(1, 2, 0)
  • net.forward() 执行前向传播,得到风格迁移结果
  • reshape() 操作将4维输出[B, C, H, W]转换为3维[C, H, W]
  • cv2.normalize() 使用MIN-MAX归一化将值范围缩放到[0,1]区间
  • transpose() 将维度从通道优先[C, H, W]转换为OpenCV显示格式[H, W, C]

5. 结果显示

复制代码
# 显示转换后的风格迁移图像
cv2.imshow('Stylized Image', result)
cv2.waitKey(0)
cv2.destroyAllWindows()

显示最终的风格迁移结果,并等待用户按键后关闭所有窗口。

相关推荐
沫儿笙9 小时前
川崎焊接机器人弧焊气体节约
人工智能·机器人
新知图书9 小时前
多模态大模型的应用场景
人工智能·大模型应用开发·大模型应用
Giser探索家9 小时前
遥感卫星升轨 / 降轨技术解析:对图像光照、对比度的影响及工程化应用
大数据·人工智能·算法·安全·计算机视觉·分类
Mr数据杨9 小时前
【ComfyUI】Animate单人物角色视频替换
人工智能·计算机视觉·音视频
lisw059 小时前
AI眼镜:作为人机交互新范式的感知延伸与智能融合终端
人工智能·人机交互·软件工程
bestcxx9 小时前
0.2、AI Agent 开发中 ReAct 和 MAS 的概念
人工智能·python·dify·ai agent
Q一件事10 小时前
arcgis重采样插值方法的选择
人工智能·arcgis
Xxtaoaooo10 小时前
Sora文生视频技术拆解:Diffusion Transformer架构与时空建模原理
人工智能·架构·音视频·transformer·sora
lisw0510 小时前
数字化科技简化移民流程的 5 种方式
大数据·人工智能·机器学习
空白到白10 小时前
Transformer-解码器_编码器部分
人工智能·深度学习·transformer