OpenCV 笔记(30):图像降噪算法——非局部均值滤波

1. 非局部均值滤波

非局部均值滤波(Non-Local Means,NL-Means)是一种非线性的图像去噪算法。它基于图像中的像素具有相似结构这一假设,利用图像的全局信息来对图像进行去噪。

1.1 全局算法 VS 局部算法

非局部均值滤波在计算每个像素点的估计值时,会考虑图像中所有与该像素点具有相似 邻域结构的像素点。因此,非局部均值滤波是一种全局算法

那么相对于全局算法的局部算法 是什么呢?局部算法是指仅利用图像局部信息进行处理的算法。例如其邻域窗口内的信息,来计算该像素点的估计值。常用的局部算法包括:

  • 均值滤波
  • 中值滤波
  • 高斯滤波
  • 双边滤波

局部算法的优点是计算量小,速度快。但其缺点是去噪效果有限,容易造成图像细节丢失。

1.2 均值滤波和非局部均值滤波的区别

均值滤波:对于图像中的每个像素点,其滤波值是其邻域窗口内所有像素点的平均值。

非局部均值滤波:该算法需要计算图像中所有像素 与当前像素之间的相似性。首先需要定义一个大的搜索窗口一个小的邻域窗口 。搜索窗口用于搜索与当前像素点具有相似邻域结构的像素点,邻域窗口用于计算像素点之间的相似度。邻域窗口在搜索窗口中滑动,对于搜索窗口内的每个像素点,计算其与当前像素点的邻域窗口的相似度,并将其作为权重。相似度越大则权重越大。

非局部均值滤波的基本原理与均值滤波类似都要取平均值,但是非局部均值滤波在计算中加入了每一个点的权重。

非局部均值滤波是一种比均值滤波更先进的图像去噪方法,但其计算量也更大。

1.3 非局部均值滤波的原理

非局部均值滤波的公式如下:

<math xmlns="http://www.w3.org/1998/Math/MathML"> u ~ ( x ) = ∑ y ∈ Ω x w ( x , y ) v ( y ) \tilde u(x) = \sum\limits_{y \in {\Omega _x}} {w(x,y)v(y)} </math>u~(x)=y∈Ωx∑w(x,y)v(y)

其中,w(x,y) 是一个权重,表示在原始图像 v 中,像素 x 和像素 y 的相似度。 <math xmlns="http://www.w3.org/1998/Math/MathML"> Ω x \Omega _x </math>Ωx是像素 x 的搜索窗口。 <math xmlns="http://www.w3.org/1998/Math/MathML"> u ~ ( x ) \tilde u(x) </math>u~(x)是滤波后的图像。

常用的相似度度量方法包括:欧式距离、高斯相似度、L1 范数、L2 范数、MSE 等等。

衡量两个图像块的相似度最常用的方法是计算他们之间的欧氏距离:

<math xmlns="http://www.w3.org/1998/Math/MathML"> w ( x , y ) = 1 n ( x ) e − ∥ V ( x ) − V ( y ) ∥ 2 , a 2 h 2 w(x,y) = {1 \over {n(x)}}e^ -{{\left\| {{\bf{V}}(x) - {\bf{V}}(y)} \right\|_{2,a}^2} \over {{h^2}}} </math>w(x,y)=n(x)1e−h2∥V(x)−V(y)∥2,a2

其中:

  • n(x) 是一个归一化的因子,是所有权重的和。对每个权重除以该因子后,使得权重满足和为1的条件。
  • a 是高斯核的标准差。在求欧式距离的时候,不同位置的像素的权重是不一样的,距离块的中心越近,权重越大,距离中心越远,权重越小,权重服从高斯分布。实际计算中常常采用均匀分布的权重。
  • h 是滤波系数。控制指数函数的衰减从而改变欧氏距离的权重,h >0 。

非局部均值滤波的复杂度跟图像的大小、搜索窗口的大小、相似度计算方法、权重计算方法密切相关。

2. 非局部均值滤波的实现

下面的例子,是在图像中添加斑点噪声,然后用非局部均值滤波消除噪声。

cpp 复制代码
#include <opencv2/opencv.hpp>
#include <opencv2/core.hpp>
#include <opencv2/highgui.hpp>
#include <random>

using namespace std;
using namespace cv;

void addSpeckleNoise(Mat& image, double scale, Mat &dst) {
    dst = image.clone();
    RNG rng;

    dst.forEach<Pixel>([&](Pixel &p, const int * position) -> void {
        int row = position[0];
        int col = position[1];

        double random_value = rng.uniform(0.0, 1.0);
        double noise_intensity = random_value * scale;
        dst.at<Vec3b>(row, col) = dst.at<Vec3b>(row, col) + Vec3b(noise_intensity * 255, noise_intensity * 255, noise_intensity * 255);
    });
}

//NL-means 算法的实现
void nonlocalMeansFilter(Mat& src, Mat& dst, int templeteWindowSize, int searchWindowSize, double h, double sigma = 0.0){
    //邻域的大小不能超过搜索窗口的大小
    if (templeteWindowSize > searchWindowSize){
        cout << "searchWindowSize should be larger than templeteWindowSize" << endl;
        return;
    }

    if (dst.empty())
        dst = Mat::zeros(src.size(), src.type());

    const int tr = templeteWindowSize >> 1;//tr为邻域的中心位置
    const int sr = searchWindowSize >> 1;  //sr为搜索域的中心位置
    const int bb = sr + tr;//需增加的边界宽度
    const int D = searchWindowSize*searchWindowSize;//搜索域中的元素个数
    const int H = D / 2 + 1;//搜索域中的中心点位置
    const double div = 1.0 / (double)D;//均匀分布时,搜索域中的每个点的权重大小
    const int tD = templeteWindowSize*templeteWindowSize;//邻域中的元素个数
    const double tdiv = 1.0 / (double)(tD);//均匀分布时,搜索域中的每个点的权重大小

    //扩充边界
    Mat boardSrc;
    copyMakeBorder(src, boardSrc, bb, bb, bb, bb, cv::BORDER_DEFAULT);

    //weight computation;
    vector<double> weight(256 * 256 * src.channels());
    double* w = &weight[0];
    const double gauss_sd = (sigma == 0.0) ? h : sigma;//高斯标准差
    double gauss_color_coeff = -(1.0 / (double)(src.channels())) * (1.0 / (h*h));//高斯颜色系数
    int emax=0;

    //w[i]保存方差,即邻域平均欧氏距离对应的高斯加权权重,供后面计算出欧式距离后调用
    for (int i = 0; i < weight.size(); i++){
        double v = std::exp(max(i - 2.0*gauss_sd*gauss_sd, 0.0)*gauss_color_coeff);
        w[i] = v;
        if (v<0.001){
            emax = i;
            break;
        }
    }

    for (int i = emax; i < weight.size(); i++)
        w[i] = 0.0;

    int height = src.rows;
    int width = src.cols;

    if (src.channels() == 3){
        const int cstep = (int)boardSrc.step - templeteWindowSize * 3;
        const int csstep = (int)boardSrc.step - searchWindowSize * 3;
#pragma omp parallel for
        for (int j = 0; j<height; j++){
            uchar* d = dst.ptr(j);
            int* ww = new int[D];//D 为搜索域中的元素数量,ww用于记录搜索域每个点的邻域方差
            double* nw = new double[D];//根据方差大小高斯加权归一化后的权重
            for (int i = 0; i<width; i++){
                double tweight = 0.0;
                //search loop
                uchar* tprt = boardSrc.data + boardSrc.step * (sr + j) + 3 * (sr + i);
                uchar* sptr2 = boardSrc.data + boardSrc.step * j + 3 * i;
                for (int l = searchWindowSize, count = D - 1; l--;){
                    uchar* sptr = sptr2 + boardSrc.step * (l);
                    for (int k = searchWindowSize; k--;){
                        //templete loop
                        int e = 0;
                        uchar* t = tprt;
                        uchar* s = sptr + 3 * k;
                        for (int n = templeteWindowSize; n--;){
                            for (int m = templeteWindowSize; m--;){
                                // computing color L2 norm
                                e += (s[0] - t[0])*(s[0] - t[0]) + (s[1] - t[1])*(s[1] - t[1]) + (s[2] - t[2])*(s[2] - t[2]);//L2 norm
                                s += 3;
                                t += 3;
                            }
                            t += cstep;
                            s += cstep;
                        }
                        const int ediv = e*tdiv;
                        ww[count--] = ediv;
                        //get weighted Euclidean distance
                        tweight += w[ediv];
                    }
                }

                //weight normalization
                if (tweight == 0.0){
                    for (int z = 0; z<D; z++) nw[z] = 0;
                    nw[H] = 1;
                }else{
                    double itweight = 1.0 / (double)tweight;
                    for (int z = 0; z<D; z++) nw[z] = w[ww[z]] * itweight;
                }
                double r = 0.0, g = 0.0, b = 0.0;
                uchar* s = boardSrc.ptr(j + tr); s += 3 * (tr + i);
                for (int l = searchWindowSize, count = 0; l--;){
                    for (int k = searchWindowSize; k--;)
                    {
                        r += s[0] * nw[count];
                        g += s[1] * nw[count];
                        b += s[2] * nw[count++];
                        s += 3;
                    }
                    s += csstep;
                }
                d[0] = saturate_cast<uchar>(r);
                d[1] = saturate_cast<uchar>(g);
                d[2] = saturate_cast<uchar>(b);
                d += 3;
            }//i
            delete[] ww;
            delete[] nw;
        }//j
    } else if (src.channels() == 1){
        const int cstep = (int)boardSrc.step - templeteWindowSize;//在邻域比较时,从邻域的上一行末尾跳至下一行开头
        const int csstep = (int)boardSrc.step - searchWindowSize;//搜索域循环中,从搜索域的上一行末尾跳至下一行开头
#pragma omp parallel for
        for (int j = 0; j<height; j++){
            uchar* d = dst.ptr(j);
            int* ww = new int[D];
            double* nw = new double[D];
            for (int i = 0; i<width; i++){
                double tweight = 0.0;
                uchar* tprt = boardSrc.data + boardSrc.step * (sr + j) + (sr + i);
                uchar* sptr2 = boardSrc.data + boardSrc.step * j + i;
                for (int l = searchWindowSize, count = D - 1; l--;){
                    uchar* sptr = sptr2 + boardSrc.step * (l);
                    for (int k = searchWindowSize; k--;){
                        int e = 0;
                        uchar* t = tprt;
                        uchar* s = sptr + k;
                        for (int n = templeteWindowSize; n--;){
                            for (int m = templeteWindowSize; m--;){
                                e += (*s - *t)*(*s - *t);
                                s++;
                                t++;
                            }
                            t += cstep;
                            s += cstep;
                        }
                        const int ediv = e*tdiv;
                        ww[count--] = ediv;
                        tweight += w[ediv];
                    }
                }

                if (tweight == 0.0){
                    for (int z = 0; z<D; z++) nw[z] = 0;
                    nw[H] = 1;
                }else{
                    double itweight = 1.0 / (double)tweight;
                    for (int z = 0; z<D; z++) nw[z] = w[ww[z]] * itweight;
                }
                double v = 0.0;
                uchar* s = boardSrc.ptr(j + tr); s += (tr + i);
                for (int l = searchWindowSize, count = 0; l--;){
                    for (int k = searchWindowSize; k--;){
                        v += *(s++)*nw[count++];
                    }
                    s += csstep;
                }
                *(d++) = saturate_cast<uchar>(v);
            }//i
            delete[] ww;
            delete[] nw;
        }//j
    }
}

int main() {
    Mat src = imread(".../girl.jpg");

    imshow("src", src);

    Mat result;

    Mat dst4;
    addSpeckleNoise(src,0.5,dst4);
    imshow("addSpeckleNoise", dst4);

    nonlocalMeansFilter(dst4, result, 3, 15, 40,40);
    imshow("removeSpeckleNoise", result);

    waitKey(0);
    return 0;
}

OpenCV 提供了非局部均值滤波算法,并对其进行了加速。

  • fastNlMeansDenoising():对单个灰度图像进行去噪。
  • fastNlMeansDenoisingColored() :对彩色图像进行去噪。
  • fastNlMeansDenoisingMulti() :用于连续相关灰度图像的快速去噪(例如视频中的连续灰度帧)。
  • fastNlMeansDenoisingColoredMulti() :用于连续相关彩色图像的快速去噪(例如视频中的连续彩色帧)。
cpp 复制代码
int main() {
    Mat src = imread(.../girl.jpg");

    imshow("src", src);

    Mat result;

    Mat dst4;
    addSpeckleNoise(src,0.5,dst4);
    imshow("addSpeckleNoise", dst4);

    fastNlMeansDenoisingColored(dst4,result,40,40);
    imshow("removeSpeckleNoise2", result);

    waitKey(0);
    return 0;
}

3. 总结

非局部均值滤波能够有效地去除图像中的各种噪声,包括高斯噪声、椒盐噪声、纹理噪声等。非局部均值滤波能够较好地保留图像的细节,对噪声的类型和分布不敏感,具有较强的鲁棒性。

当然,非局部均值滤波的缺点也很明显:计算量大,容易受到图像边缘的影响等等。

非局部均值滤波的计算量大、速度慢是可以通过减少搜索窗口大小、采用快速相似度计算方法、利用图像的稀疏性、并行化计算、利用硬件加速等方法来加速。

相关推荐
凤枭香8 小时前
Python OpenCV 傅里叶变换
开发语言·图像处理·python·opencv
ctrey_9 小时前
2024-11-4 学习人工智能的Day21 openCV(3)
人工智能·opencv·学习
可均可可10 小时前
C++之OpenCV入门到提高004:Mat 对象的使用
c++·opencv·mat·imread·imwrite
蒙娜丽宁10 小时前
《Python OpenCV从菜鸟到高手》——零基础进阶,开启图像处理与计算机视觉的大门!
python·opencv·计算机视觉
plmm烟酒僧11 小时前
Windows下QT调用MinGW编译的OpenCV
开发语言·windows·qt·opencv
AI小杨11 小时前
【车道线检测】一、传统车道线检测:基于霍夫变换的车道线检测史诗级详细教程
人工智能·opencv·计算机视觉·霍夫变换·车道线检测
冷凝女子12 小时前
【QT】海康视频及openCv抓拍正脸接口
qt·opencv·音视频·海康
撞南墙者14 小时前
OpenCV自学系列(1)——简介和GUI特征操作
人工智能·opencv·计算机视觉
柳鲲鹏15 小时前
OpenCV视频防抖源码及编译脚本
人工智能·opencv·计算机视觉
jndingxin15 小时前
OpenCV视觉分析之目标跟踪(8)目标跟踪函数CamShift()使用
人工智能·opencv·目标跟踪