OPENCV判断图像中目标物位置及多目标物聚类

文章目录

在最近的项目中,又碰到一个有意思的问题需要通过图像算法来解决。就是显微拍摄的到的医疗图像中,有时候目标物比较偏,也就是在图像的比较偏的位置,需要通过移动样本,将目标物置于视野正中央,然后再次进行拍摄。

就类似于下面的图像:

基于这个需求,在图像上就需要使用图像算法进行判断(没有必要使用深度网络的时候就不要用,太浪费资源了)。

对于上面的图像,基本的处理逻辑是:

  1. 因为目标物是细胞,也就是图中的一个一个的圈圈,需求就是要让尽可能多的细胞位于图像正中央。
  2. 目标物的粘连比较少,所以基于阈值分割的基本逻辑应该是可以将所需要的目标物提取出来(这一块在python的opencv操作记录11------阈值分割这一篇已经讲过了)。
  3. 分割完之后再通过opencv提取轮廓的方法将轮廓提取出来。
  4. 提取完轮廓之后,对每个轮廓求外接矩形。
  5. 利用业务特性对相应的轮廓做一些过滤操作。
  6. 将多个矩形做一个聚类,这里可以有多种聚类方案,可以先聚类再筛选,也可以根据某个逻辑确定一个质心,然后再根据这个质心再做聚类。
  7. 然后就是调参工作了。

我自己的代码为:

int getCenter(cv::Mat img, cv::Rect& resultRect)
{
	cv::cvtColor(img, img, cv::COLOR_RGB2GRAY);

    // 阈值分割
	cv::threshold(img, img, 50, 255, cv::THRESH_BINARY);

    // 提取轮廓
	std::vector<cv::Mat> contours;
	cv::findContours(img, contours, cv::RETR_LIST, cv::CHAIN_APPROX_NONE);

	// 逐步聚类的方法
	std::vector<float> xs, ys;

    // 初始化质心
	float centroid_x = 0.0f, centroid_y = 0.0f;

	// 找到第一个质心,我这里是使用面积最大的作为第一个质心,代码没有贴上来
	int maxIndex = 0;
	float maxSocre = 0.0f;

	// 迭代计算质心
	for (int i = 0; i < contours.size(); i++)
	{
		score = cv::contourArea(contours[i]);

        // 判断是一个有效区域
		if (score > threshold_score)
		{
			cv::Rect rect = cv::boundingRect(contours[i]);

			// 判断是否离中心比较远, 第一次不做判断
			if (abs(rect.x + (rect.width / 2) - centroid_x) > centroidThresholdX)
			{
				continue;
			}

			if (abs(rect.y + (rect.height / 2) - centroid_y) > centroidThresholdY)
			{
				continue;
			}

            // 纳入下一次的质心计算
			xs.push_back(rect.x + rect.width / 2);
			ys.push_back(rect.y + rect.height / 2);

			float tempCenterX = 0.0f;
			for (int x = 0; x < xs.size(); x++)
			{
				tempCenterX += xs[x];
			}
			centroid_x = tempCenterX / xs.size();

			float tempCenterY = 0.0f;
			for (int y = 0; y < ys.size(); y++)
			{
				tempCenterY += ys[y];
			}
			centroid_y = tempCenterY / ys.size();
		}
	}
    
    for(int z = 0; z < xs.size(); z++)
    { 
        if (xs[z] < minX)
        {
            minX = xs[z];
        }
        if (xs[z] > maxX)
        {
            maxX = xs[z];
        }
        if (ys[z] < minY)
        {
            minY = ys[z];
        }
        if (ys[z] > maxY)
        {
            maxY = ys[z];
        }
    }

    std::cout << "maxX:" << maxX << "minX:" << minX << "maxY:" << maxY << "minY:" << minY << std::endl;

    resultRect.x = minX;
    resultRect.y = minY;
    resultRect.width = maxX - minX;
    resultRect.height = maxY - minY;

	return 0;
}

最后的结果是:

调整的距离就是这个矩形的中央到整个图像的中央坐标了。

相关推荐
清风浅醉4 分钟前
【GPT】对低阶版本的GPT探测:文学
人工智能·chatgpt
DisonTangor4 分钟前
OpenAI全新多模态内容审核模型上线:基于 GPT-4o,可检测文本和图像
人工智能·aigc
下海的alpha8 分钟前
db-gpt部署问题
人工智能·gpt·深度学习
Thetoicxdude8 分钟前
[Day 82] 區塊鏈與人工智能的聯動應用:理論、技術與實踐
人工智能·web3·numpy
凭栏落花侧32 分钟前
数据预处理:数据挖掘的第一步
人工智能·python·数据挖掘·conda·numpy·pandas·pip
小嗷犬37 分钟前
【论文笔记】Flamingo: a Visual Language Model for Few-Shot Learning
论文阅读·人工智能·语言模型·大模型·多模态
一尘之中1 小时前
AMD 矩阵核心
人工智能·学习·矩阵
cg50171 小时前
线性模型到神经网络
人工智能·深度学习·神经网络
老丝瓜、1 小时前
stable diffusion Webui插件的三种安装方法
人工智能·学习·stable diffusion·aigc·ai绘画
肖遥Janic1 小时前
Stable Diffusion绘画 | Checkpoint Merger 模型融合
人工智能·ai·ai作画·stable diffusion