zoukankan      html  css  js  c++  java
  • opencv-python车牌字符分割和识别入门(转)

    最近做一个车牌识别项目,入门级别的,十分简单。

    车牌识别总体分成两个大的步骤:

    一、车牌定位:从照片中圈出车牌

    二、车牌字符识别

    这里只说第二个步骤,字符识别包括两个步骤:

    1、图像处理:原本的图像每个像素点都是RGB定义的,或者称为有R/G/B三个通道。在这种情况下,很难区分谁是背景,谁是字符,所以需要对图像进行一些处理,把每个RGB定义的像素点都转化成一个bit位(即0-1代码),具体方法如下:

    ①将图片灰度化

    名字拗口,但是意思很好理解,就是把每个像素的RGB都变成灰色的RGB值,而灰色的RGB值是R=G=B的。具体怎么改变暂且忽略,因为OpenCV有封装好的函数。

    ②将灰度图片二值化

    我们做第一步的目的就是为了让每个像素都可以转变成0或1。再解释一下,既然每个像素的RGB值都相等了,那么将这个值称为灰度值,假设一张灰度车牌图片中,背景的灰度值集中在180(十进制)左右,而字符的灰度值集中在20左右,那么我们规定一个中间值100,小于100的像素点就可以全部变成0,大于100的像素点可以全部变成1,这样就实现了二值化。

    ③旋转调平

    这个就不说了。

    ④去燥

    这个涉及另外一些方法,以后有时间再补充,入门项目不作要求。

    2、图像切割和识别

    ①图像切割

    切割可以很简单,也可以很难,关键是方法的选择。

    在这就用最弱智的方法进行切割吧。

    图片现在已经成为一个0-1矩阵了,其中要么0是背景而1是字符,或者1是背景而0是字符,那就简单粗暴地用每一列的0-1数来切割。

    我先在这里假设图片几乎水平,而且几乎没有噪点,具体方法如下:

    a.将每一列的1值和0值分别统计起来。

    b.根据每一列的0-1总和变换来切割字符

    ②图像识别

    将每一个字符的图片分割出来后,就可以根据模板来判断是哪个字符了。

    简单的方法有两种:

    a.逐个像素比对,如果一致则count加一,最后根据count值确定匹配结果。

    b.投影匹配:将每行、每列的像素位统计起来,根据差值大小来确定匹配结果。

    两种方法结合效果很好。

    具体的识别之后再补充。

    下面是字符分割的代码。

    import cv2
     
    # 1、读取图像,并把图像转换为灰度图像并显示
    img = cv2.imread("chepai/6.png")  # 读取图片
    img_gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)   # 转换了灰度化
    cv2.imshow('gray', img_gray)  # 显示图片
    cv2.waitKey(0)
     
    # 2、将灰度图像二值化,设定阈值是100
    img_thre = img_gray
    cv2.threshold(img_gray, 100, 255, cv2.THRESH_BINARY_INV, img_thre)
    cv2.imshow('threshold', img_thre)
    cv2.waitKey(0)
     
    # 3、保存黑白图片
    cv2.imwrite('thre_res.png', img_thre)
     
    # 4、分割字符
    white = []  # 记录每一列的白色像素总和
    black = []  # ..........黑色.......
    height = img_thre.shape[0]
    width = img_thre.shape[1]
    white_max = 0
    black_max = 0
    # 计算每一列的黑白色像素总和
    for i in range(width):
        s = 0  # 这一列白色总数
        t = 0  # 这一列黑色总数
        for j in range(height):
            if img_thre[j][i] == 255:
                s += 1
            if img_thre[j][i] == 0:
                t += 1
        white_max = max(white_max, s)
        black_max = max(black_max, t)
        white.append(s)
        black.append(t)
        print(s)
        print(t)
     
    arg = False  # False表示白底黑字;True表示黑底白字
    if black_max > white_max:
        arg = True
     
    # 分割图像
    def find_end(start_):
        end_ = start_+1
        for m in range(start_+1, width-1):
            if (black[m] if arg else white[m]) > (0.95 * black_max if arg else 0.95 * white_max):  # 0.95这个参数请多调整,对应下面的0.05
                end_ = m
                break
        return end_
     
    n = 1
    start = 1
    end = 2
    while n < width-2:
        n += 1
        if (white[n] if arg else black[n]) > (0.05 * white_max if arg else 0.05 * black_max):
            # 上面这些判断用来辨别是白底黑字还是黑底白字
            # 0.05这个参数请多调整,对应上面的0.95
            start = n
            end = find_end(start)
            n = end
            if end-start > 5:
                cj = img_thre[1:height, start:end]
                cv2.imshow('caijian', cj)
                cv2.waitKey(0)

    源程序中没有将图片输出,而只是显示出来,下面是执行结果

    原图片:

    灰度图片:

    二值图片:(白底黑字)

    分割后:

    总体分割效果还是补充。但是遇到干扰较多的图片,比如左右边框太大、噪点太多,这样就不能分割出来,各位可以试一下不同的照片。


    ————————————————
    版权声明:本文为CSDN博主「Jdfohewk」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
    原文链接:https://blog.csdn.net/m0_38024433/article/details/78650024

  • 相关阅读:
    SQL语句
    POJ2586——Y2K Accounting Bug
    POJ1328——Radar Installation
    POJ2965——The Pilots Brothers' refrigerator
    SDIBT2666——逆波兰表达式求值
    POJ1753——Flip Game
    Python全栈开发-有趣的小程序
    跑马灯效果、jquery封装、$.fn和$.extend方法使用
    js 实现浏览器全屏效果
    百度地图点聚合功能如何提高性能
  • 原文地址:https://www.cnblogs.com/answerThe/p/12398108.html
Copyright © 2011-2022 走看看