嵌入式学习69-C++(Opencv)

知识零碎:

QT的两种编译模式 1.debug 调试模式 2.release 发布模式 OpenCV在此模式下运行

图像是由像素点组成的;

常见图像中的像素点有4种组成方式

(单通道) 位图: 对应位的比特只有存在和不存在,亮和暗 两种状态,用01表示 像素深度为1bit

(单通道)灰度图: 把亮和暗划分为256个梯度,用一个字节(8bit)表示 像素深度为8bit

(黑白图像都属于灰度图)

(三通道)RGB图像: 3个字节,888 像素深度为24bit

(四通道)RGBA图像: A:透明度 显示背景色 0 不透明 255 全透明 像素深度为32bit

像素的深度 : 用于表达一个像素所需的比特数

图像二值化 将图像上的像素点的灰度值设置为0或255,也就是将整个图像呈现出明显的黑白效果的过程。 图像的二值化使图像中数据量大为减少 ,从而能凸显出目标的轮廓

二值化处理

1.先设立阈值,例如127,小于127为白 =0 大于127 为黑 =255

-----------------------------------------------------------------------------------------------------------------------------Mat 是最基本的容器类

Mat的构造函数 Mat mat(10, 10, CV_8UC3, Scalar(0, 0, 0));

三通道时Mat是按照BGR组合的

Mat 其实是一个模板,可以存放不同图像的组成方式

5,6,CV_8UC3

5行 6列 8:每个像素点占8个比特 U:无符号数据 3:每个像素点占用三个通道

BGR 888

256*256*256

人脸检测时,将 RGB图像转化为灰度图像 变为单通道的256 ,减少运算量和cpu的损耗

图像处理的本质: 矩阵运算,是一个二维数组

-------------------------------------------------------------------------------------------------------------------------------- 对比度调节


  1. 用cvtColor(origion, gray,COLOR_BGR2GRAY );函数转灰度或其他图像
  2. Mat roi = origion(Rect(10 ,10, 100, 100)); 重载函数调用运算符,获得图像的局部区域
  3. Resize 缩放图像
  4. Flip 翻转图像、

滤波

Blur 中值滤波(模糊算法)

某一点的像素= 周边一圈的像素和的平均值

拿2 举例 周围一圈/9 从而达到模糊的效果

锚点:卷积和的中心

高斯滤波Gaussianblur

Erode 腐蚀(消噪点) 通常是针对二值图像的, threshold用于转换二值图像(源图必须是灰度图)

cvtColor(mat, dest, COLOR_BGR2GRAY) threshold(dest, dest, 127, 255, THRESH_BINARY); 腐蚀时: 以卷积核中心点为中心,遍历整个二维数组,卷积核内所有像素都为1时,该点为1,有一个点为0时,该点为0

erode(dest, dest, Mat()); Mat()卷积核 默认3X3

Dilate 膨胀

Rectangle 绘制矩形

Circle 绘制圆形

Ellipse 绘制椭圆

相关推荐
KaneLogger7 小时前
【Agent】openclaw + opencode 打造助手 安装篇
人工智能·google·程序员
知识浅谈8 小时前
一步步带你把 OpenClaw 玩宕机(附云服务器避坑部署教程)
人工智能
冬奇Lab8 小时前
OpenClaw 深度解析(四):插件 SDK 与扩展开发机制
人工智能·开源·源码阅读
IT_陈寒10 小时前
SpringBoot实战:5个让你的API性能翻倍的隐藏技巧
前端·人工智能·后端
机器之心10 小时前
让AI自我进化?斯坦福华人博士答辩视频火了,庞若鸣参与评审
人工智能·openai
iceiceiceice10 小时前
iOS PDF阅读器段评实现:如何从 PDFSelection 精准还原一个自然段
前端·人工智能·ios
AI攻城狮11 小时前
RAG Chunking 为什么这么难?5 大挑战 + 最佳实践指南
人工智能·云原生·aigc
yiyu071611 小时前
3分钟搞懂深度学习AI:梯度下降:迷雾中的下山路
人工智能·深度学习
掘金安东尼12 小时前
玩转龙虾🦞,openclaw 核心命令行收藏(持续更新)v2026.3.2
人工智能