opencv的DNN模块里

复制代码
import cv2

# 读取输入图像
image = cv2.imread('img_1.png')
image = cv2.resize(image, (450, 600))
# 显示输入图像
cv2.imshow('yuan tu', image)
cv2.waitKey(0)

# ------图片预处理------
# 获取图像尺寸
(h, w) = image.shape[:2]

# 从原始图像构建一个符合人工神经网络输入格式的四维块 (blob)
# 参数:
#     image: 输入图像
#     scalefactor: 对图像内的数据进行缩放的比例因子 (每个像素值 * scalefactor),默认为1
#     size: 控制blob的宽度和高度,这里设置为原图的尺寸 (w, h)
#     mean: 从每个通道减去的均值。(0, 0, 0)表示不进行均值减法
#     swapRB: OpenCV默认使用BGR通道,而模型通常使用RGB。此处设为False不交换通道,请根据模型要求调整
#     crop: 如果为True,则在调整大小后进行居中裁剪。此处为False
# 返回值 blob: 一个四维数据,布局为 [N, C, H, W] (批大小, 通道数, 高度, 宽度)
blob = cv2.dnn.blobFromImage(image, scalefactor=1.0, size=(w, h), mean=(0, 0, 0), swapRB=False, crop=False)

# 加载模型
# 使用 readNetFromTorch 加载 PyTorch 格式的模型文件 (.t7)
net = cv2.dnn.readNetFromTorch(r'candy.t7')

# 将预处理后的blob设置为网络的输入
net.setInput(blob)

# 对输入图像进行前向传播,得到输出结果
# 输出out是四维的,形状为 [1, C, H, W] (1张图片, 通道数, 高度, 宽度)
out = net.forward()

# 输出处理
# 重塑形状(忽略第1维的batch size),4维[B, C, H, W]变3维[C, H, W]
out_new = out.reshape(out.shape[1], out.shape[2], out.shape[3])

# 对输出的数组进行归一化处理,将其值范围缩放到0-1之间 (使用MIN-MAX归一化)
cv2.normalize(out_new, out_new, alpha=0, beta=1, norm_type=cv2.NORM_MINMAX)

# 转置输出结果的维度,从 [C, H, W] 转换为 [H, W, C] 以便OpenCV显示
result = out_new.transpose(1, 2, 0)

# 显示转换后的风格迁移图像
cv2.imshow('Stylized Image', result)
cv2.waitKey(0)
cv2.destroyAllWindows()

代码概述

这段代码实现了基于深度学习的图像风格迁移功能,使用OpenCV的dnn模块加载预训练的PyTorch模型,将艺术风格应用到输入图像上。

代码逐段解析

1. 图像读取与预处理

复制代码
import cv2

# 读取输入图像
image = cv2.imread('img_1.png')
image = cv2.resize(image, (450, 600))
# 显示输入图像
cv2.imshow('yuan tu', image)
cv2.waitKey(0)
  • cv2.imread() 读取图像文件
  • cv2.resize() 调整图像尺寸为450×600像素,统一输入尺寸有助于处理
  • cv2.imshow()cv2.waitKey(0) 显示原始图像并等待按键继续

2. 构建神经网络输入Blob

复制代码
# 获取图像尺寸
(h, w) = image.shape[:2]

# 从原始图像构建一个符合人工神经网络输入格式的四维块 (blob)
blob = cv2.dnn.blobFromImage(image, scalefactor=1.0, size=(w, h), 
                            mean=(0, 0, 0), swapRB=False, crop=False)

cv2.dnn.blobFromImage() 是关键函数,参数详解:

  • image: 输入图像
  • scalefactor=1.0: 像素值缩放因子(1.0表示不缩放)
  • size=(w, h): 输出blob的尺寸,此处保持原图尺寸
  • mean=(0, 0, 0): 各通道的均值减法值(0表示不进行均值减法)
  • swapRB=False: 是否交换红蓝通道(False表示保持BGR格式)
  • crop=False: 是否进行中心裁剪(False表示不裁剪)

此函数生成的blob维度为[1, 3, H, W],符合深度学习模型的输入要求。

3. 加载与配置模型

复制代码
# 使用 readNetFromTorch 加载 PyTorch 格式的模型文件 (.t7)
net = cv2.dnn.readNetFromTorch(r'candy.t7')

# 将预处理后的blob设置为网络的输入
net.setInput(blob)
  • cv2.dnn.readNetFromTorch() 加载PyTorch格式的预训练模型
  • net.setInput(blob) 将预处理后的数据设置为网络输入

4. 前向传播与输出处理

复制代码
# 对输入图像进行前向传播,得到输出结果
out = net.forward()

# 输出处理:重塑形状(忽略第1维的batch size)
out_new = out.reshape(out.shape[1], out.shape[2], out.shape[3])

# 对输出的数组进行归一化处理
cv2.normalize(out_new, out_new, alpha=0, beta=1, norm_type=cv2.NORM_MINMAX)

# 转置输出结果的维度,从 [C, H, W] 转换为 [H, W, C] 以便OpenCV显示
result = out_new.transpose(1, 2, 0)
  • net.forward() 执行前向传播,得到风格迁移结果
  • reshape() 操作将4维输出[B, C, H, W]转换为3维[C, H, W]
  • cv2.normalize() 使用MIN-MAX归一化将值范围缩放到[0,1]区间
  • transpose() 将维度从通道优先[C, H, W]转换为OpenCV显示格式[H, W, C]

5. 结果显示

复制代码
# 显示转换后的风格迁移图像
cv2.imshow('Stylized Image', result)
cv2.waitKey(0)
cv2.destroyAllWindows()

显示最终的风格迁移结果,并等待用户按键后关闭所有窗口。

相关推荐
Victory_orsh6 分钟前
“自然搞懂”深度学习(基于Pytorch架构)——010203
人工智能·pytorch·python·深度学习·神经网络·算法·机器学习
长桥夜波9 分钟前
机器学习日报10
人工智能·机器学习
ytttr87333 分钟前
MATLAB实现经验模态分解(EMD)与希尔伯特变换获取能量谱
人工智能·python·matlab
AI浩35 分钟前
MHAF-YOLO:用于精确目标检测的多分支异构辅助融合YOLO
人工智能·yolo·目标检测
YangYang9YangYan38 分钟前
高职大数据技术专业学习与发展指南
大数据·人工智能·学习·数据分析
lybugproducer39 分钟前
深度学习专题:模型训练的数据并行(二)
人工智能·深度学习·神经网络
学無芷境42 分钟前
Large-Scale 3D Medical Image Pre-training with Geometric Context Priors
人工智能·3d
大模型服务器厂商43 分钟前
适配的 GPU 服务器能让 AI 模型充分发挥算力优势
人工智能
AscendKing1 小时前
LandPPT - AI驱动的PPT生成平台
人工智能·好好学电脑·hhxdn.com
FreeCode1 小时前
LangChain1.0智能体开发:流输出组件
人工智能·langchain·agent