zoukankan      html  css  js  c++  java
  • 找到两张相似的图

    找到两张相似的图

    感知哈希perceptual hash

    ,相关的一个算法是感知哈希perceptual hash,他的作用是对每张图片生成一个指纹fingerprint字符串,然后对比不同的图片的指纹。结果越接近,就说明图片越相似。

    下面介绍一个最简单的实现。

    step1:缩小尺寸

    将图片缩小到(8 imes 8)的尺寸,总共64个像素。这一步的作用是除去图片的细节,只保留结构、明暗的基本信息,摒弃不同尺寸比例带来的图片差异

    step2:简化色彩

    将缩小后的图片,转为64级灰度。也就是说像素点总共只有64总颜色。

    step3:计算平均值

    计算64个像素的灰度平均值。

    step4:比较像素的灰度

    将每个像素的灰度与平均值进行比较。大于或者等于平均值,记为1,小于平均值记为0.

    step5:计算哈希值

    将上一步的比较结果,组合在一起,就构成了一个64位的整数。这就是这张图片的指纹。组合的次序并不重要,只要保证所有的图片都采用相同的次序就行。

    img = img = 8f373714acfcf4d0

    得到指纹后,就可以对比不同的图片,看看64位中有多少位是不一样的,在理论上,这等价于汉明距离。如果不相同的数据不超过5,就说两张图片很相似。如果大于10,就说明这是两张不同的图片

    具体的代码实现,可以参见Wote用python语言写的imgHash.py。代码很短,只有53行。使用的时候,第一个参数是基准图片,第二个参数是用来比较的其他图片所在的目录,返回结果是两张图片之间不相同的数据位数量(汉明距离)。

    这种算法的优点是简单快速,不受图片大小缩放的影响,缺点是图片的内容不能变更。如果在图片上加几个文字,它就认不出来了。所以,它的最佳用途是根据缩略图,找出原图。

    实际应用中,往往采用更强大的pHash算法和SIFT算法,它们能够识别图片的变形。只要变形程度不超过25%,它们就能匹配原图。这些算法虽然更复杂,但是原理与上面的简便算法是一样的,就是先将图片转化成Hash字符串,然后再进行比较。

    文中给出的代码 imgHash.py,建议使用网上流行的代码片段(snippet)分享服务,既可以高亮,又可以有一定的评论和修改功能,何乐而不为?这些服务中比较好的有:
    - https://gist.github.com/
    - http://snipt.org/
    - http://pastebay.com/
    - http://pastebin.com/

    "第四步,比较像素的灰度"
    这个标题我觉得改为
    “第四步,将灰度图转换为二值图”比较好
    因为后面贴的图是纯黑白的,也就是二值图

    另一种方法呢,为

    颜色分步法

    每张图片都可以生成颜色分布直方图color histogram。如果两张图的直方图很接近,就可以认为他们很相似。

    img

    即任何一种颜色都是由红绿蓝RGB三原色构成的,所以上图共有4张直方图(三原色直方图,加最后合成的直方图)

    如果每种原色都可以取256个值,那么整个颜色空间共有1600万种颜色(256的三次方)。针对这1600万种颜色比较直方图,计算量实在太大。因此需要化简方法。可以将0~63为0区, 64~127为第1区, 128~191为第2区, 192~255为第3区.也就是说红绿蓝分别有4个区,总共可以构成64种组合,四的三次方。

    任何一种颜色必然属于这64种组合中的一种,这样就可以统计出每一种组合包含的像素数量。

    img

    上图是某张图片的颜色分布表,将表中最后一栏提取出来,组成一个64维向量(7414, 230, 0, 0, 8, ..., 109, 0, 0, 3415, 53929)。这个向量就是这张图片的特征值或者叫"指纹"。

    于是,寻找相似图片就变成了找出与其最相似的向量。这可以用皮尔逊相关系数或者余弦相似度算出。

    内容特征法

    除了颜色构成,还可以从比较图片内容的相似性入手。

    首先,将原图转成一张较小的灰度图片,假定为50x50像素。然后,确定一个阈值,将灰度图片转成黑白图片。

    如果两张图片很相似,它们的黑白轮廓应该是相近的。于是,问题就变成了,第一步如何确定一个合理的阈值,正确呈现照片中的轮廓?

    显然,前景色与背景色反差越大,轮廓就越明显。这意味着,如果我们找到一个值,可以使得前景色和背景色各自的"类内差异最小"(minimizing the intra-class variance),或者"类间差异最大"(maximizing the inter-class variance),那么这个值就是理想的阈值。

    1979年,日本学者大津展之证明了,"类内差异最小"与"类间差异最大"是同一件事,即对应同一个阈值。他提出一种简单的算法,可以求出这个阈值,这被称为"大津法"(Otsu's method)。下面就是他的计算方法。

    imgimgimg

    假定一张图片共有n个像素,其中灰度值小于阈值的像素为 n1 个,大于等于阈值的像素为 n2 个( n1 + n2 = n )。w1 和 w2 表示这两种像素各自的比重。

      w1 = n1 / n

      w2 = n2 / n

    再假定,所有灰度值小于阈值的像素的平均值和方差分别为 μ1 和 σ1,所有灰度值大于等于阈值的像素的平均值和方差分别为 μ2 和 σ2。于是,可以得到

      类内差异 = w1(σ1的平方) + w2(σ2的平方)

      类间差异 = w1w2(μ1-μ2)^2

    可以证明,这两个式子是等价的:得到"类内差异"的最小值,等同于得到"类间差异"的最大值。不过,从计算难度看,后者的计算要容易一些。

    下一步用"穷举法",将阈值从灰度的最低值到最高值,依次取一遍,分别代入上面的算式。使得"类内差异最小"或"类间差异最大"的那个值,就是最终的阈值。具体的实例和Java算法,请看这里

    img

    有了50x50像素的黑白缩略图,就等于有了一个50x50的0-1矩阵。矩阵的每个值对应原图的一个像素,0表示黑色,1表示白色。这个矩阵就是一张图片的特征矩阵。

    两个特征矩阵的不同之处越少,就代表两张图片越相似。这可以用"异或运算"实现(即两个值之中只有一个为1,则运算结果为1,否则运算结果为0)。对不同图片的特征矩阵进行"异或运算",结果中的1越少,就是越相似的图片。

    来源:
    大神1号

  • 相关阅读:
    【oracle】查看表空间对应文件所在位置
    【oracle】查看表空间信息
    【java异常】java.lang.Integer cannot be cast to java.lang.String
    【oracle】DATE输出是什么东西
    数字万用表的精度和分辨率,ADC的位数
    二阶系统
    Verilog中实现电平检测
    模拟信号和数字信号,直流信号和交流信号
    噪声:强度,方差信噪比(待完善)
    Simulink模块之Band-Limited White Noise
  • 原文地址:https://www.cnblogs.com/xiaofeisnote/p/13450028.html
Copyright © 2011-2022 走看看