zoukankan      html  css  js  c++  java
  • OpenCV笔记(3)(Canny边缘检测、高斯金字塔、拉普拉斯金字塔、图像轮廓、模板匹配)

    一、Canny边缘检测

    Canny边缘检测是一系列方法综合的结果。其中主要包含以下步骤:

    1.使用高斯滤波器,平滑图像,滤除噪声。

    2.计算图像中每个像素点的梯度强度和方向。

    3.应用非极大值抑制(NMS:Non-Maximum Suppression),以消除边缘检测带来的杂散相应。

    4.应用双阈值(Double-Threshold)检测来确定真实和潜在的边缘。

    5.通过抑制孤立的弱边缘最终完成边缘检测。

    1.高斯滤波器

    平滑图像。

    2.计算梯度和方向

    使用X和Y方向的Sobel算子来分别计算XY方向梯度:

    每个点的梯度强度有XY方向的梯度计算出来:

    计算每个点梯度的方向:

    3.使用NMS

    有两种方法,第一种方法(插值法,比较复杂):

        通过计算出的梯度方向,找到与周边临近点的边的交点,然后使用权重计算交点的值,假设g1和g2之间的交点(左上的黑点)处于6/4的位置,那么他的值为M = g1*(1-0.6)+g2*(0.4)。

        当算出左上的黑点和右下的黑点值后,用这两个点与C的值进行比较,如果都小于C,则C归为边界。如果有一个比C大,则丢弃C,这就叫抑制。

    第二种方法(指定8个方向,不用插值,简化版):

    4.双阈值检测

    在NMS的基础上,判断一个边界点的梯度强度:

      (1) 如果值大于maxVal,则处理为边界

      (2) 如果值minVal<梯度值<maxVal,再检查是否挨着其他边界点,如果旁边没有边界点,则丢弃,如果连着确定的边界点,则也认为其为边界点。

      (3) 梯度值<minVal,舍弃。

    通过以上步骤,完成Canny边缘检测。调用Canny API如下:

    # 使用Canny边界检测
    def use_canny(image):
        # 后面两个参数代表双阈值检测的minVal和maxVal
        img1 = cv.Canny(image, 50, 100)
        cv.imshow('img1', img1)
        # 这里使用更大的minVal和maxVal,细节边界变少了
        img2 = cv.Canny(image, 170, 250)
        cv.imshow('img2', img2)

    二、高斯金字塔

    图像金字塔:Image pyramid

    如图中所示,从0到3是一个下采样过程(指图片越来越小的方向),从3到0是一个上采样过程(将图片变大的过程),一次下采样加一次上采样不等于原图像,因为会损失一些细节信息。

    # 下采样(图片变小4倍,即hw各缩小一倍)
    def down_sample(image):
        down = cv.pyrDown(image)
        cv.imshow('down', down)
    
    
    # 上采样(图片变大4倍,即hw各变大一倍)
    def up_sample(image):
        up = cv.pyrUp(image)
        cv.imshow('up', up)

    上采样+下采样=原图??

    如下图所示,很明显,经上采样后下采样得到的图片(右图)和原图(左图)相比,更加模糊,说明丢失了一些信息。

    先经上采样,后经下采样的图像结果如下(大小未发生变化):

    原始图像: (205, 368, 3)
    上采样后: (410, 736, 3)
    上采样+下采样后: (205, 368, 3)

    下采样+上采样=原图??

    如下图所示,非常明显,经下采样后上采样得到的图片和原图相比,模糊很严重,说明这种情况下丢失信息更加严重。

    当h或w为单数时,下采样后其将变为单数,如下结果所示:

    原始图像: (205, 368, 3)
    下采样后: (103, 184, 3)
    下采样+上采样后: (206, 368, 3)

    原始图像和经下采样上采样后的图像大小发生了变化。

    三、拉普拉斯金字塔

    拉普拉斯金字塔的整个计算过程如上图所示:

    1.左上角的图片为原始图片

    2.对原始图像进行高斯平滑

    3.执行一次下采样,图像变为原来的1/4

    4.执行一次上采样,图像变为原图的大小

    5.再次执行高斯模糊

    6.用原图像减去高斯模糊后的图像,得到拉普拉斯图像

    上述过程是某一层拉普拉斯金字塔的计算过程,其他层同样按这个过程计算。

    def lap_pyr(image):
        img = image.copy()
        # 处理h或w为奇数的情况,如果为奇数,丢弃最后一行或列
        h, w = image.shape[0:2]
        if h % 2 != 0:
            img = img[0:h - 1, :, :]
        if w % 2 != 0:
            img = img[:, 0:w - 1, :]
    
        gaus = cv.GaussianBlur(img, (3, 3), 0)
        down = cv.pyrDown(gaus)
        up = cv.pyrUp(down)
        gaus_up = cv.GaussianBlur(up, (3, 3), 0)
        diff = gaus - gaus_up
        # 返回下一层的原始图像(即高斯模糊后下采样得到的图像),以及本层拉普拉斯图像
        return down,diff

    得到的图像如上图,但噪声很大。
    四、图像轮廓

    # 要找一个图中的轮廓,首先要将图片转换为二值图像
    def find_contour(image):
        # 首先将图片转换为灰度图
        gray = cv.cvtColor(image, cv.COLOR_RGB2GRAY)
        # 将灰度图转换为二值图像
        ret, thresh = cv.threshold(gray, 127, 255, cv.THRESH_BINARY)
        cv.imshow('二值图像', thresh)
        # 在二值图像中寻找轮廓,返回的contours中含有多个轮廓
        contours, hierarchy = cv.findContours(thresh, cv.RETR_TREE, cv.CHAIN_APPROX_NONE)
    
        # 复制一份原图像
        draw_img = image.copy()
        # 在复制的图上画出轮廓,颜色为(0,0,255)红色,-1表示画出全部轮廓,指定0则表示只画第一个轮廓,
       # 最后的2表示画线的粗细
    res = cv.drawContours(draw_img, contours, -1, (0, 0, 255), 2) cv.imshow('轮廓图', res)

    图像结果,左边为二值图像,右边为在原图的拷贝上画出的轮廓。

    上述代码中关键函数为cv.findContours(img,mode,method):

    img:原图像的二值图像,见代码中的转换

    mode:轮廓检索模式,主要有一下几种,最常用的是RETR_TREE

      RETR_EXTERNAL:只检索最外面的轮廓;

      RETR_LIST:检索所有的轮廓,并将其保存到一条链表当中;

      RETR_CCOMP:检索所有的轮廓,并将他们组织为两层,顶层是各部分的外部边界,第二层是空洞的边界

      RETR_TREE:检索所有的轮廓,并重构嵌套轮廓的整个层次。

    method:轮廓逼近方法,常用的有一下两种(还有其他不常用的)

      CHAIN_APPROX_NONE:以Freeman链码的方式输出轮廓,所有其他方法输出多边形

      CHAIN_APPROX_SIMPLE:压缩水平的、垂直的和斜的部分,也就是,函数只保留他们的终点部分。如下图所示,锁边为NONE,右边为SIMPLE。

    计算轮廓包含的面积,周长等:

    # 计算轮廓包含的面积
    print(cv.contourArea(contours[0]))
    print(cv.contourArea(contours[1]))
    # 计算第一个轮廓的周长,True表示闭合的
    print(cv.arcLength(contours[0], True))

    轮廓近似:

    draw_img2 = image.copy()
    # 用周长的0.3倍作为阈值,对轮廓做近似处理,这里以第189个轮廓为例
    epsilon = 0.03 * cv.arcLength(contours[188], True)
    approx = cv.approxPolyDP(contours[188], epsilon, True)
    res2 = cv.drawContours(draw_img2, [approx], -1, (255, 0, 0), 2)
    cv.imshow('res2', res2)draw_img2 = image.copy()
    # 用周长的0.3倍作为阈值,对轮廓做近似处理,这里以第189个轮廓为例
    epsilon = 0.03 * cv.arcLength(contours[188], True)
    approx = cv.approxPolyDP(contours[188], epsilon, True)
    res2 = cv.drawContours(draw_img2, [approx], -1, (255, 0, 0), 2)
    cv.imshow('res2', res2)

     对所有轮廓都做近似处理:

    # 将contours中的左右轮廓都做近似处理
    new_contours = []
    for i in contours:
    eps = 0.01 * cv.arcLength(i,True)
    approx = cv.approxPolyDP(i,eps,True)
    new_contours.append(approx)
    
    draw_img2 = image.copy()
    res2 = cv.drawContours(draw_img2, new_contours, -1, (255, 0, 0), 2)
    cv.imshow('res2', res2)

    外接矩形:

    x, y, w, h = cv.boundingRect(contours[188])
    rect = cv.rectangle(draw_img2, (x, y), (x + w, y + h), (0, 255, 0), 2)
    cv.imshow('rect', rect)

    最小矩形:

    可以通过轮廓来获取其最小矩形,用于定位车牌等很有用(车牌不是正的时候)

    # 获取最小矩形
        res = cv.minAreaRect(contours[188])
        # box中保存的是由四个顶点坐标组成的二维数组,通过4个顶点,我们可以将车牌抠出来
        box = cv.boxPoints(res)
        box = np.int32(box)
    
        # 用polylines将矩形画出来
        box = box.reshape(-1, 1, 2)
        cv.polylines(draw_img2, [box], True, (0, 0, 255), 2)

    外接圆:

    # 获取外接圆
    (x, y), r = cv.minEnclosingCircle(contours[188])
    center = (int(x), int(y))
    radius = int(r)
    circle = cv.circle(draw_img2, center, radius, (0, 255, 0), 2)
    cv.imshow('circle', circle)

    凸包:

    convex Hull,获取轮廓的外接凸包,获得N个坐标,仍然用line画出。

    res = cv.convexHull(contours[188])
        length = len(res)
        for i in range(length):
            cv.line(draw_img3, tuple(res[i][0]), tuple(res[(i + 1) % length][0]), (0, 255, 255), 2)
        cv.imshow('draw_img3', draw_img3)

    五、模板匹配

    例如,我们要在一张图中匹配其中的一部分图像,并找到其具体坐标:

    # 模板匹配
    def template_match(src, temp):
        # 转换为灰度图像可以减少计算量
        src = cv.cvtColor(src, cv.COLOR_RGB2GRAY)
        temp = cv.cvtColor(temp, cv.COLOR_RGB2GRAY)
        # 获取temp的h和w
        h, w = temp.shape[0:2]
    
        # 将原图和局部图输入,计算出一个差异矩阵res
        res = cv.matchTemplate(src, temp, cv.TM_SQDIFF)
    
        # 得到这个diff矩阵中的最小值、最大值以及所在位置,都是tuple
        min_val, max_val, min_loc, max_loc = cv.minMaxLoc(res)
        # 我们使用的是平方误差,值需要关心最小值所在位置
        img = src.copy()
        # 用白色将对应的框画出来
        rect = cv.rectangle(img, min_loc, (min_loc[0] + h, min_loc[1] + w), 255, 2)
        cv.imshow('rect', rect)

    其中求diff矩阵的函数cv.matchTemplate(img,temp,cv.TM_SQDIFF)的第三个参数有以下选择:

      1.TM_SQDIFF: 计算平方误差,值越小,越相关

      2.TM_CCORR: 计算相关性,计算出来的值越大,越相关

      3.TM_CCOFFF: 计算相关系数,计算出来的值越大,越相关

      4.TM_SQDIFF_NORMED: 计算归一化的平方误差,越接近0越相关

      5.TM_CCPRR_NORMED: 计算归一化的相关性,越接近1,越相关

      6.TM_CCOFFF_NORMED: 计算归一化的相关系数,越接近1,越相关

  • 相关阅读:
    欢迎加入强哥的 Android 开发交流群
    HashMap和ConcurrentHashMap的区别,HashMap的底层源码
    angular ngIf 导致不点击屏幕,就无法显示内容的问题
    angular date 过滤器不兼容 ios 造成 列表循环渲染错误的问题
    部署Node.js到阿里云服务器CentOs
    使用手淘VW适配方案后造成伪类使用content报错的解决办法
    Vue 加载 Sass Loader 报错的解决方案
    Typescript中private、public、protected修饰符的区别
    搭建Android开发环境 以及 ionic 编译安卓app步骤
    前端开发规范:3-CSS
  • 原文地址:https://www.cnblogs.com/leokale-zz/p/11349481.html
Copyright © 2011-2022 走看看