zoukankan      html  css  js  c++  java
  • 系统结构实践期末大作业——第十七组

    系统结构实践期末大作业

    选题简介

    我们这次的期末大作业主要完成的是一个车牌识别的系统,部署在树莓派上,利用opencv和python来完成对车牌的提取、字符分割以及字符识别等操作,最后再以字符串的形式显示出来
    首先我们先学习了YOLO论文,学习了一些机器学习相关的知识,因为之前是准备用深度学习提高识别准确性,后面发现我们基础知识欠缺的比较多,所以后面就转向了对opencv的学习

    设计&&运行结果

    我们本次的实践主要是以代码为主,后面本想写个可视化界面,发现时间不太充足了,在学习opencv以及图像处理那里花费了较多的实践
    这里把设计方向以及结果结合在一起写出来,内容如下:

    首先对图片进行高斯去噪处理

    img = cv2.GaussianBlur(rawImg, (3, 3), 0)
    

    对图片进行灰度处理

    gray_img = cv2.cvtColor(img, cv2.COLOR_RGB2GRAY)
    

    利用Sobel算子进行边缘检测--x方向

    这里说明一下,对图片进行y方向检测的效果不是很理想,所以就用了x方向的处理

    Sobel_x = cv2.Sobel(gray_img, cv2.CV_16S, 1, 0)
    absX = cv2.convertScaleAbs(Sobel_x)
    image = absX
    

    自适应阈值处理

    利用图像局部阈值替换全局阈值进行图像计算的一种方法,具体针对光影变化过大的图片,或者范围内颜色差异不太明显的图片。
    自适应是指保证计算机能够通过判断和计算取得该图像区域的平均阈值进行迭代。

    ret, image = cv2.threshold(image, 0, 255, cv2.THRESH_OTSU)
    

    闭运算

    先创建结构元素kernelX这里的17指x方向,5指方向,MORPH_RECT指返回矩形

    kernelX = cv2.getStructuringElement(cv2.MORPH_RECT, (17, 5))
    

    再对图片进行闭运算

    image = cv2.morphologyEx(image, cv2.MORPH_CLOSE, kernelX, iterations=3)
    


    具体是先进行膨胀然后进行腐蚀操作。通常是被用来填充前景物体中的小洞,或者抹去前景物体上的小黑点。因为可以想象,其就是先将白色部分变大,把小的黑色部分挤掉,然后再将一些大的黑色的部分还原回来,整体得到的效果就是:抹去前景物体上的小黑点了。

    再膨胀腐蚀,腐蚀膨胀去除小的白点

    # 去除一些比较小的白点
    kernelX = cv2.getStructuringElement(cv2.MORPH_RECT, (20, 1))
    kernelY = cv2.getStructuringElement(cv2.MORPH_RECT, (1, 19))
    # 膨胀腐蚀
    image = cv2.dilate(image, kernelX)
    image = cv2.erode(image, kernelX)
    # 腐蚀膨胀
    image = cv2.erode(image, kernelY)
    image = cv2.dilate(image, kernelY)
    

    再用中值滤波去除噪点

    image = cv2.medianBlur(image, 15)
    

    对其进行轮廓检测

    cv2.RETR_EXTERNAL表示只检测外轮廓
    # cv2.CHAIN_APPROX_SIMPLE压缩水平方向、垂直方向、对角线方向的元素,只保留该方向的终点坐标
    contours, hierarchy = cv2.findContours(image, cv2.RETR_TREE, cv2.CHAIN_APPROX_SIMPLE)
    # 绘制轮廓
    image_copy = rawImg.copy()
    cv2.drawContours(image_copy, contours, -1, (0, 255, 0), 2)
    

    根据长宽比再筛选出车牌位置

    这里需要说明的是,车牌的长宽比介于3:1 -- 4:1之间,所以按照这个方向去找即可

    for item in contours:
        rect = cv2.boundingRect(item)
        x = rect[0]
        y = rect[1]
        weight = rect[2]
        height = rect[3]
        if (weight > (height * 3)) and (weight < (height * 4)):
            image = rawImg[y:y + height, x:x + weight]
    

    对提取出来的车牌进行字符分割

    分割有两种方案:
    1.根据每个字的长宽比来分割每一个字符,但问题比较明显,1这样的字符不容易被识别出来
    2.对提取出来的车牌进行处理,根据其直方图找到波峰波谷,根据波峰波谷再进行字符分割
    这里用的第一种方案

    对车牌进行高斯去噪

    img = cv2.GaussianBlur(image, (3, 3), 0)
    

    灰度处理

    gray_img = cv2.cvtColor(img, cv2.COLOR_RGB2GRAY)
    

    自适应阈值处理

    ret, image = cv2.threshold(gray_img, 0, 255, cv2.THRESH_OTSU)
    

    闭运算

    kernel = cv2.getStructuringElement(cv2.MORPH_RECT, (2, 2))
    image = cv2.dilate(image, kernel)
    

    对其再进行轮廓检测

    contours, hierarchy = cv2.findContours(image, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
    image_copy = rawImg2.copy()
    cv2.drawContours(image_copy, contours, -1, (0, 0, 255), 1)
    

    筛选出各个字符的轮廓,对其进行分割处理

    words = []
    word_images = []
    for item in contours:
        # 用一个最小的矩形把找到的形状包起来
        word = []
        rect = cv2.boundingRect(item)
        x = rect[0]
        y = rect[1]
        weight = rect[2]
        height = rect[3]
        word.append(x)
        word.append(y)
        word.append(weight)
        word.append(height)
        words.append(word)
    words = sorted(words, key=lambda s: s[0], reverse=False)
    

    这里把每个字符的位置存到了words数组里
    接下来再根据这个位置进行字符的分割处理

    i = 0
    for word in words:
        if (word[3] > (word[2] * 1)) and (word[3] < (word[2] * 3.5)):
            i += 1
            split_image = rawImg2[word[1]:word[1] + word[3], word[0]:word[0] + word[2]]
            # plt_show0(split_image)
            word_images.append(split_image)
    for i, j in enumerate(word_images):
        plt.subplot(1, 8, i + 1)
        plt.imshow(word_images[i], cmap='gray')
    


    至此,字符分割完成

    字符识别操作

    新建一个模板template

    
        template = ['0', '1', '2', '3', '4', '5', '6', '7', '8', '9',
                    'A', 'B', 'C', 'D', 'E', 'F', 'G', 'H', 'J', 'K', 'L', 'M', 'N', 'P', 'Q', 'R', 'S', 'T', 'U', 'V', 'W',
                    'X', 'Y', 'Z',
                    '藏', '川', '鄂', '甘', '赣', '贵', '桂', '黑', '沪', '吉', '冀', '津', '晋', '京', '辽', '鲁', '蒙', '闽', '宁',
                    '青', '琼', '陕', '苏', '皖', '湘', '新', '渝', '豫', '粤', '云', '浙']
    

    把模板文件导入到数组里

    # 匹配中文
    c_words = []
    for i in range(34, 64):
        c_word = read_dictionary('./refer1/' + template[i])
        c_words.append(c_word)
    # 匹配英文
    e_words = []
    for i in range(10, 34):
        e_word = read_dictionary('./refer1/' + template[i])
        e_words.append(e_word)
    # 匹配数字和英文
    m_words = []
    for i in range(0, 34):
        m_word = read_dictionary('./refer1/' + template[i])
        m_words.append(m_word)
    

    对每个字符进行操作

        i = 1
        for image in word_images:
            # 高斯去噪
            img = cv2.GaussianBlur(image, (3, 3), 0)
            # 灰度处理
            gray_img = cv2.cvtColor(img, cv2.COLOR_RGB2GRAY)
            # plt_show(gray_img)
            # 自适应阈值处理
            ret, img = cv2.threshold(gray_img, 0, 255, cv2.THRESH_OTSU)
            # 进行模板的匹配
    
            if i == 1:
                # 匹配中文
                best_score = []
                for c_word in c_words:
                    score = []
                    for word in c_word:
                        template_img = cv2.imdecode(np.fromfile(word, dtype=np.uint8), 1)
                        template_img = cv2.cvtColor(template_img, cv2.COLOR_RGB2GRAY)
                        ret, template_img = cv2.threshold(template_img, 0, 255, cv2.THRESH_OTSU)
                        height, width = template_img.shape
                        image = img.copy()
                        image = cv2.resize(image, (width, height))
                        result = cv2.matchTemplate(image, template_img, cv2.TM_CCOEFF)
                        score.append(result[0][0])
                    best_score.append(max(score))
                str.append(template[34 + best_score.index(max(best_score))])
                # print(str)
                i += 1
                continue
    
            if i == 2:
                # 匹配第二个英文
                best_score = []
                for e_word in e_words:
                    score = []
                    for word in e_word:
                        template_img = cv2.imdecode(np.fromfile(word, dtype=np.uint8), 1)
                        template_img = cv2.cvtColor(template_img, cv2.COLOR_RGB2GRAY)
                        ret, template_img = cv2.threshold(template_img, 0, 255, cv2.THRESH_OTSU)
                        height, width = template_img.shape
                        image = img.copy()
                        image = cv2.resize(image, (width, height))
                        result = cv2.matchTemplate(image, template_img, cv2.TM_CCOEFF)
                        score.append(result[0][0])
                    best_score.append(max(score))
                str.append(template[10 + best_score.index(max(best_score))])
                # print(str)
                i += 1
                continue
            if i > 2:
                # plt_show(img)
                best_score = []
                for m_word in m_words:
                    score = []
                    for word in m_word:
                        template_img = cv2.imdecode(np.fromfile(word, dtype=np.uint8), 1)
                        template_img = cv2.cvtColor(template_img, cv2.COLOR_RGB2GRAY)
                        ret, template_img = cv2.threshold(template_img, 0, 255, cv2.THRESH_OTSU)
                        height, width = template_img.shape
                        image = img.copy()
                        image = cv2.resize(image, (width, height))
                        result = cv2.matchTemplate(image, template_img, cv2.TM_CCOEFF)
                        score.append(result[0][0])
                    best_score.append(max(score))
                str.append(template[best_score.index(max(best_score))])
                # print(str)
                i += 1
                continue
    

    最后得到结果:

    树莓派运行结果

    组内分工 + 贡献比

    学号 姓名 分工 贡献比
    031702145 马连政 车牌范围识别,车牌提取修改bug 18%
    031702243 杨成锦 车牌范围识别,车牌提取修改bug 18%
    031702108 叶心言 对提取出来的字符进行字符分割 16%
    031702142 林德辉 对提取出来的字符进行字符分割 16%
    031702218 覃鸿浩 对分割出来的字符进行识别 16%
    031502115 黄臻 对分割出来的字符进行识别 16%

    总结

    本次实验重在学习新的东西,其实感觉我们做的项目并没有很完善(还有些bug没有办法解决),项目中也遇到过了很多的问题,能解决大多数已经是万幸了,目前我们对车牌的识别还有很大的问题,很多车牌没有办法划清位置,字符的识别率也有待提高,对图片处理的参数也需要进行相应的调整。
    马连政:
    本次实验学了很多之前没有学过的东西,像opencv这类的东西之前根本没有接触过,这次实验不仅让我接触到了opencv,还让我对他有了更进一步的了解。比如说什么闭运算开运算,还有一些对图像的处理,中值滤波高斯滤波等,可以对图片进行降噪处理,利用Sobel算子可以检测图片中物体的边缘等等,一开始本来打算用YOLO进行深度学习的训练,到后来结果没有实现,虽然没有实现,但是也加深了我对于机器学习的理解和认识。这次的实验接触的范围很广,看了很多大牛的作品,也学到了很多,也发现自身其实还是有很多的不足,还得努力.
    林德辉:
    1.对期末大作业的选题,切入方向,组长有了很大的功劳,带领我们去慢慢做
    2.在逐步实践的过程中,主动去了解opencv的一些实现,摸鱼学习····
    3.课程的进行,给自己的学习能力带来了很大的提升,主要还是面向百度谷歌的的编程能力
    杨成锦:
    在此次实践作业中,学习了如何对车牌区域的鉴定,车牌字符的分割提取以及字符比对。了解车牌识别的整个过程,对图像预处理部分有了新的认识和应用,以及最后和docker容器结合在一起,复习了之前的相关操作。总体上,基本实现了车牌识别的功能要求,但是准确率有待提高,部分图片不能识别的问题目前仍在解决中。
    黄臻:
    在该次实验中,我的分工为对分割出来并处理后的字符进行识别,首先通过分析标准车牌的格式,在网上下载了字符的模板,其中包含汉字,字母和数字,然后在等待字符处理完毕后,对汉字字母数字三类分别通过opencv的matchTemplate进行匹配,并根据最高匹配值在template里面找到相应的字符,之后在通过多加实验后发现,对于在识别标准、规范字符是效果较好,但一旦识别一些复杂环境下的车牌字符,就会出现一些错误,通过与组员的交流,感觉其原因大概是由于该匹配方法虽然较为简单,但自适应不强,容错率不高,复杂环境下字符难与模板相匹配,但由于时间问题,我们便没有重新更改识别方法,而是通过增加模板的情况来减少错误率,而在通过这个实验,我也进一步学习了这与之相关的知识,之后还会根据兴趣去丰富自身,增加自己的见识的能力。
    叶心言:
    一开始看到这些选题,感觉对我们来说难度太大了,还没想过自己能做出来这些东西。后来一点点慢慢去了解去学习,接触到了一些之前没接触过的东西,比如opencv,也见识了一些之前没学过甚至没听过的知识,好像慢慢摸到点门路,发现自己尝试着也可以做成一些东西。虽然最后项目还没有很完善,但是在过程中学到了很多新知识,看来自己还得多努力多实践。
    覃鸿浩:
    对每个分割出来的字符图片进行高斯滤波降噪,灰度处理,自适应阈值处理。
    1、高斯滤波实质上是一种信号的滤波器,其用途是信号的平滑处理,图像大多数噪声均属于高斯噪声,因此高斯滤波器应用也较广泛。
    高斯滤波去噪就是对整幅图像像素值进行加权平均,针对每一个像素点的值,都由其本身值和邻域内的其他像素值经过加权平均后得到。
    高斯滤波的具体操作是:用一个用户指定的模板(或称卷积、掩膜)去扫描图像中的每一个像素,用模板确定的邻域内像素的加权平均灰度值去替代模板中心像素点的值。
    2、图像的灰度化
    在理解了一张图片是由一个像素点矩阵构成之后,我们就知道我们对图像的处理就是对这个像素点矩阵的操作,想要改变某个像素点的颜色,我们只要在这个像素点矩阵中找到这个像素点的位置,比如第x行,第y列,所以这个像素点在这个像素点矩阵中的位置就可以表示成(x,y),因为一个像素点的颜色由红、绿、蓝三个颜色变量表示,所以我们通过给这三个变量赋值,来改变这个像素点的颜色,比如改成红色(255,0,0),可以表示为(x,y,(R=255,G=0,B=0))。
    图片的灰度化其实很简单,就是让像素点矩阵中的每一个像素点都满足下面的关系:R=G=B(就是红色变量的值,绿色变量的值,和蓝色变量的值,这三个值相等。
    灰度处理的方法:
    灰度化后的R=(处理前的R + 处理前的G +处理前的B)/ 3
    灰度化后的G=(处理前的R + 处理前的G +处理前的B)/ 3
    灰度化后的B=(处理前的R + 处理前的G +处理前的B)/ 3
    3、使用变化的阙值完成对图像的阙值处理,这种技术被称为自适应阙值处理。在进行阔值处理时,自适应值处理的方式通过计算每个像素点周围临近区域的加权平均值获得阈值,并使用该值对当前像素点进行处理。这样做的好处在于与普通的阈值处理方法相比自适应阈值处理能够更好地处理明暗差异较大的图像,每个像素位置处的二值化阈值不是固定不变的,而是由其周围邻域像素的分布来决定的。亮度较高的图像区域的二值化阈值通常会较高,而亮度较低的图像区域的二值化阈值则会相适应地变小。不同亮度、对比度、纹理的局部图像区域将会拥有相对应的局部二值化阈值。
    函数原型:
    void adaptiveThreshold(InputArray src, OutputArray dst,
    double maxValue, int adaptiveMethod,
    int thresholdType, int bolckSize, double C)

  • 相关阅读:
    Typescript+WebGL+Webpack开发环境搭建
    SVG的动态之美-搜狗地铁图重构散记
    2017年个人总结-程序员的中年焦虑症
    上海2017QCon个人分享总结
    CSS预编译与PostCSS以及Webpack构建CSS综合方案
    前端工程师的基本素养
    不仅仅是复制粘贴
    《微信小程序七日谈》- 第七天:不要捡了芝麻丢了西瓜
    《微信小程序七日谈》- 第六天:小程序devtool隐藏的秘密
    《微信小程序七日谈》- 第五天:你可能要在登录功能上花费大力气
  • 原文地址:https://www.cnblogs.com/mlz031702145/p/13197778.html
Copyright © 2011-2022 走看看