zoukankan      html  css  js  c++  java
  • paper 114:Mahalanobis Distance(马氏距离)

    (from:http://en.wikipedia.org/wiki/Mahalanobis_distance)

    Mahalanobis distance

    In statisticsMahalanobis distance is a distance measure introduced by P. C. Mahalanobis in 1936.It is based on correlations between variables by which different patterns can be identified and analyzed. It gauges similarity of an unknown sample set to a known one. It differs fromEuclidean distance in that it takes into account the correlations of the data set and is scale-invariant. In other words, it is a multivariateeffect size.

    Definition

    Formally, the Mahalanobis distance of a multivariate vector x = ( x_1, x_2, x_3, dots, x_N )^T from a group of values with mean mu = ( mu_1, mu_2, mu_3, dots , mu_N )^T and covariance matrix S is defined as:

    D_M(x) = sqrt{(x - mu)^T S^{-1} (x-mu)}.\,

    (注:1.这个是X和总体均值的马氏距离。2.这里的S是可逆的,那么协方差矩阵不可逆的话怎么办?)

    Mahalanobis distance (or "generalized squared interpoint distance" for its squared value) can also be defined as a dissimilarity measure between two random vectors  vec{x} and  vec{y} of the same distribution with the covariance matrix S :

     d(vec{x},vec{y})=sqrt{(vec{x}-vec{y})^T S^{-1} (vec{x}-vec{y})}.\,

    If the covariance matrix is the identity matrix, the Mahalanobis distance reduces to the Euclidean distance. If the covariance matrix is diagonal, then the resulting distance measure is called the normalized Euclidean distance:

     d(vec{x},vec{y})=
sqrt{sum_{i=1}^N  {(x_i - y_i)^2 over s_{i}^2}},

    where s_{i} is the standard deviation of the  x_i  (  y_i ) over the sample set.

    (源自:百度百科)

    马氏优缺点:

    1.马氏距离的计算是建立在总体样本的基础上的,这一点可以从上述协方差矩阵的解释中可以得出,也就是说,如果拿同样的两个样本,放入两个不同的总体中,最后计算得出的两个样本间的马氏距离通常是不相同的,除非这两个总体的协方差矩阵碰巧相同。
     
    2.在计算马氏距离过程中,要求总体样本数大于样本的维数,否则得到的总体样本协方差矩阵逆矩阵不存在,这种情况下,用欧式距离计算即可。
     
    3.还有一种情况,满足了条件总体样本数大于样本的维数,但是协方差矩阵的逆矩阵仍然不存在,比如三个样本点(3,4),(5,6)和(7,8)这种情况是因为这三个样本在其所处的二维空间平面内共线。这种情况下,也采用欧式距离计算。
     
    4.在实际应用中“总体样本数大于样本的维数”这个条件是很容易满足的,而所有样本点出现3)中所描述的情况是很少出现的,所以在绝大多数情况下,马氏距离是可以顺利计算的,但是马氏距离的计算是不稳定的,不稳定的来源是协方差矩阵,这也是马氏距离与欧式距离的最大差异之处。
       
    优点:它不受量纲的影响,两点之间的马氏距离与原始数据的测量单位无关;由标准化数据和中心化数据(即原始数据与均值之差)计算出的二点之间的马氏距离相同。马氏距离还可以排除变量之间的相关性的干扰。
     
    缺点:它的缺点是夸大了变化微小的变量的作用。
    **************************************************************

    欧式距离和马氏距离都可以计算两个变量的相似度。

    马氏距离能够描述不同维之间的关联性,其关键在于它用到了协方差矩阵,下面是wiki上的介绍:

    --------------------------

    统计学概率论中,协方差矩阵(或称共变异矩阵)是一个矩阵,其每个元素是各个向量元素之间的方差。这是从标量随机变量到高维度随机向量的自然推广。

    假设X是以n个标量随机变量组成的列向量一个列向量代表一个变量,而不是一个记录

    X = egin{bmatrix}X_1 \ vdots \ X_n end{bmatrix}

    并且μi 是其第i个元素的期望值, 即, μi = E(Xi)。协方差矩阵被定义的第i,j项是如下协方差:

     Sigma_{ij} = mathrm{cov}(X_i, X_j) = mathrm{E}egin{bmatrix} (X_i - mu_i)(X_j - mu_j) end{bmatrix}

    即:

     Sigma=mathrm{E} left[ left( 	extbf{X} - mathrm{E}[	extbf{X}] 
ight) left( 	extbf{X} - mathrm{E}[	extbf{X}] 
ight)^	op 
ight]
     = egin{bmatrix} mathrm{E}[(X_1 - mu_1)(X_1 - mu_1)] & mathrm{E}[(X_1 - mu_1)(X_2 - mu_2)] & cdots & mathrm{E}[(X_1 - mu_1)(X_n - mu_n)] \  mathrm{E}[(X_2 - mu_2)(X_1 - mu_1)] & mathrm{E}[(X_2 - mu_2)(X_2 - mu_2)] & cdots & mathrm{E}[(X_2 - mu_2)(X_n - mu_n)] \  vdots & vdots & ddots & vdots \  mathrm{E}[(X_n - mu_n)(X_1 - mu_1)] & mathrm{E}[(X_n - mu_n)(X_2 - mu_2)] & cdots & mathrm{E}[(X_n - mu_n)(X_n - mu_n)] end{bmatrix}

    矩阵中的第(i,j)个元素是XiXj的协方差。这个概念是对于标量随机变量方差的一般化推广。

    尽管协方差矩阵很简单,可它却是很多领域里的非常有力的工具。它能导出一个变换矩阵,这个矩阵能使数据完全去相关(decorrelation)。从不同的角度看,也就是说能够找出一组最佳的基以紧凑的方式来表达数据。(完整的证明请参考瑞利商)。 这个方法在统计学中被称为主成分分析(principal components analysis),在图像处理中称为Karhunen-Loève 变换(KL-变换)。

    -----------------------------------

    马氏距离是由印度统计学家马哈拉诺比斯(P. C. Mahalanobis)提出的,表示数据的协方差距离。它是一种有效的计算两个未知样本集的相似度的方法。与欧氏距离不同的是它考虑到各种特性之间的联系(例如:一条关于身高的信息会带来一条关于体重的信息,因为两者是有关联的)并且是尺度无关的(scale-invariant),即独立于测量尺度。 对于一个均值为mu = ( mu_1, mu_2, mu_3, dots , mu_p )^T协方差矩阵Σ的多变量向量x = ( x_1, x_2, x_3, dots, x_p )^T,其马氏距离为

    D_M(x) = sqrt{(x - mu)^T Sigma^{-1} (x-mu)}.\,

    马氏距离也可以定义为两个服从同一分布并且其协方差矩阵为Σ的随机变量 vec{x} vec{y}的差异程度:

     d(vec{x},vec{y})=sqrt{(vec{x}-vec{y})^TSigma^{-1} (vec{x}-vec{y})}.\,

    如果协方差矩阵为单位矩阵,那么马氏距离就简化为欧式距离,如果协方差矩阵为对角阵,则其也可称为正规化的欧氏距离'.

     d(vec{x},vec{y})= sqrt{sum_{i=1}^p {(x_i - y_i)^2 over sigma_i^2}},

    其中σi 是 xi 的标准差.

    http://www.360doc.com/content/10/0804/20/1202138_43697183.shtml

    http://people.revoledu.com/kardi/tutorial/Similarity/MahalanobisDistance.html

  • 相关阅读:
    颜色透明度16进制对照表
    爬取代理IP
    Python中匹配IP的正则表达式
    IP地址正则表达式的写法
    每日一练 11.23
    每日一练 11.22
    每日一练
    pycharm使用教程
    周总结博客16
    周总结博客15
  • 原文地址:https://www.cnblogs.com/molakejin/p/5815442.html
Copyright © 2011-2022 走看看