边缘提取函数 [OPENCV--2]

OPENCV中最常用的边界检测是CANNY函数

下面展示它的用法

  • 通常输入一个灰度图像(边界一般和颜色无关)这样也可以简化运算
  • cv::Canny(inmat , outmat , therhold1, therhold2 ) 第一个参数是输入的灰度图像,第二个是输出的图像
  • 这两个参数都是引用类型,很方便
  • 下面的两个是门槛,一个是低阈值门槛,一个是高阈值门槛,只有高于低阈值的才算边界,高于高阈值的算是强边界
  • 你说值怎么取?CV本来就是很唯心的学科,这些参数肯定要自己调试了,在不同的实用环境中值不一样
  • 一般来说,保证TH2是TH 1的两倍到三倍即可
cpp 复制代码
#include <opencv2/opencv.hpp>
#include <iostream>
#include <vector>

int main() {
    cv::utils::logging::setLogLevel(cv::utils::logging::LOG_LEVEL_ERROR);

    // 读取PNG图像
    cv::Mat image = cv::imread("PIC.jpg", cv::IMREAD_COLOR);
    if (image.empty()) {
        std::cerr << "无法读取图像文件" << std::endl;
        return -1;
    }

    // 转换为灰度图像
    cv::Mat gray;
    cv::cvtColor(image, gray, cv::COLOR_BGR2GRAY);

    // 初始化边缘图像向量
    std::vector<cv::Mat> edges(5);  // 初始化大小为5的向量

    for (int i = 0; i < 5; i++) {
        // 应用边缘检测(Canny)
        cv::Canny(gray, edges[i], i * 100, 150, 3);

        // 创建并调整窗口大小
        cv::namedWindow("edges" + std::to_string(i), cv::WINDOW_NORMAL);  // 使用WINDOW_NORMAL标志,允许调整窗口大小
        cv::resizeWindow("edges" + std::to_string(i), 800, 600);  // 调整窗口大小为800x600

        // 显示边缘图像
        cv::imshow("edges" + std::to_string(i), edges[i]);
    }

    cv::waitKey();

    return 0;
}

下面是程序的执行效果,可以看出,随着下门槛的提高,边界越来越少

可见

1,随着下阈值的提高,强边缘被筛选出来

2,随着下阈值的提高,边缘信息越来越少

下面我们修改上阈值看看

cpp 复制代码
  cv::Canny(gray, edges[i], i * 100, 150*i, 3);

0号图片是上门槛为0 的情况,所以噪音很多,上门槛不是越高越好,可见2,3,4几乎没有信息可言

就这样。ψ(`∇´)ψ

相关推荐
晓翔仔1 小时前
【深度实战】Agentic AI 安全攻防指南:基于 CSA 红队测试手册的 12 类风险完整解析
人工智能·安全·ai·ai安全
百家方案2 小时前
2026年数据治理整体解决方案 - 全1066页下载
大数据·人工智能·数据治理
北京耐用通信2 小时前
工业自动化中耐达讯自动化Profibus光纤链路模块连接RFID读写器的应用
人工智能·科技·物联网·自动化·信息与通信
小韩博3 小时前
一篇文章讲清AI核心概念之(LLM、Agent、MCP、Skills) -- 从解决问题的角度来说明
人工智能
沃达德软件4 小时前
人工智能治安管控系统
图像处理·人工智能·深度学习·目标检测·计算机视觉·目标跟踪·视觉检测
高工智能汽车4 小时前
爱芯元智通过港交所聆讯,智能汽车芯片市场格局加速重构
人工智能·重构·汽车
大力财经4 小时前
悬架、底盘、制动被同时重构,星空计划想把“驾驶”变成一种系统能力
人工智能
shishi5215 小时前
trae重装后,无法预览调试弹窗报错的解决方案
ide·计算机视觉·语言模型
梁下轻语的秋缘5 小时前
Prompt工程核心指南:从入门到精通,让AI精准响应你的需求
大数据·人工智能·prompt
FreeBuf_5 小时前
ChatGPT引用马斯克AI生成的Grokipedia是否陷入“内容陷阱“?
人工智能·chatgpt