机器学习中的数学 您所在的位置:网站首页 马哈是什么 机器学习中的数学

机器学习中的数学

2024-06-21 05:15| 来源: 网络整理| 查看: 265

分类目录:《机器学习中的数学》总目录 相关文章: · 距离定义:基础知识 · 距离定义(一):欧几里得距离(Euclidean Distance) · 距离定义(二):曼哈顿距离(Manhattan Distance) · 距离定义(三):闵可夫斯基距离(Minkowski Distance) · 距离定义(四):切比雪夫距离(Chebyshev Distance) · 距离定义(五):标准化的欧几里得距离(Standardized Euclidean Distance) · 距离定义(六):马氏距离(Mahalanobis Distance) · 距离定义(七):兰氏距离(Lance and Williams Distance)/堪培拉距离(Canberra Distance) · 距离定义(八):余弦距离(Cosine Distance) · 距离定义(九):测地距离(Geodesic Distance) · 距离定义(十): 布雷柯蒂斯距离(Bray Curtis Distance) · 距离定义(十一):汉明距离(Hamming Distance) · 距离定义(十二):编辑距离(Edit Distance,Levenshtein Distance) · 距离定义(十三):杰卡德距离(Jaccard Distance)和杰卡德相似系数(Jaccard Similarity Coefficient) · 距离定义(十四):Ochiia系数(Ochiia Coefficient) · 距离定义(十五):Dice系数(Dice Coefficient) · 距离定义(十六):豪斯多夫距离(Hausdorff Distance) · 距离定义(十七):皮尔逊相关系数(Pearson Correlation) · 距离定义(十八):卡方距离(Chi-square Measure) · 距离定义(十九):交叉熵(Cross Entropy) · 距离定义(二十):相对熵(Relative Entropy)/KL散度(Kullback-Leibler Divergence) · 距离定义(二十一):JS散度(Jensen–Shannon Divergence) · 距离定义(二十二):海林格距离(Hellinger Distance) · 距离定义(二十三):α-散度(α-Divergence) · 距离定义(二十四):F-散度(F-Divergence) · 距离定义(二十五):布雷格曼散度(Bregman Divergence) · 距离定义(二十六):Wasserstein距离(Wasserstei Distance)/EM距离(Earth-Mover Distance) · 距离定义(二十七):巴氏距离(Bhattacharyya Distance) · 距离定义(二十八):最大均值差异(Maximum Mean Discrepancy, MMD) · 距离定义(二十九):点间互信息(Pointwise Mutual Information, PMI)

马氏距离(Mahalanobis Distance)是由印度统计学家马哈拉诺比斯(P. C. Mahalanobis)提出的,表示数据的协方差距离。它是一种有效的计算两个未知样本集的相似度的方法。与欧氏距离不同的是它考虑到各种特性之间的联系并且是尺度无关的,即独立于测量尺度。对于一个均值为 μ μ μ,协方差矩阵为 Σ \Sigma Σ的多变量向量,其 n n n维空间中的马氏距离为: d ( x , y ) = ( x − y ) T Σ − 1 ( x − y ) ) d(x, y)=\sqrt{(x-y)^T\Sigma^{-1}(x-y))} d(x,y)=(x−y)TΣ−1(x−y)) ​

若协方差矩阵为单位矩阵,那么马氏距离就简化为欧几里得距离(Euclidean Distance)。若协方差矩阵为对角阵,则其转为标准化的欧几里得距离(Standardized Euclidean Distance)。

马氏距离的计算是建立在总体样本的基础上的,这一点可以从上述协方差矩阵的解释中可以得出,也就是说,如果拿同样的两个样本,放入两个不同的总体中,最后计算得出的两个样本间的马氏距离通常是不相同的,除非这两个总体的协方差矩阵碰巧相同。除此之外,在计算马氏距离过程中,要求总体样本数大于样本的维数,否则得到的总体样本协方差矩阵逆矩阵不存在,这种情况下,用欧几里得距离计算即可。还有一种情况,满足了条件总体样本数大于样本的维数,但是协方差矩阵的逆矩阵仍然不存在,比如所有样本共线。这种情况下,也采用欧几里得距离进行计算。但是在实际应用中“总体样本数大于样本的维数”这个条件是很容易满足的,而且所有样本点共线的情况是很少出现的,所以在绝大多数情况下,马氏距离是可以顺利计算的,但是马氏距离的计算是不稳定的,不稳定的来源是协方差矩阵,这也是马氏距离与欧几里得距离的最大差异之处。

马氏距离还不受量纲的影响,两点之间的马氏距离与原始数据的测量单位无关。由标准化数据和中心化数据计算出的二点之间的马氏距离相同。马氏距离还可以排除变量之间的相关性的干扰,但它的缺点是夸大了变化微小的变量的作用。

下面我们来看一下马氏距离的Python实现:

def MahalanobisDistance(x, y): ''' 马氏居立中的(x,y)与欧几里得距离的(x,y)不同,欧几里得距离中的(x,y)指2个样本,每个样本的维数为x或y的维数;这里的(x,y)指向量是2维的,样本个数为x或y的维数,若要计算n维变量间的马氏距离则需要改变输入的参数如(x,y,z)为3维变量。 ''' import numpy as np x = np.array(x) y = np.array(y) X = np.vstack([x,y]) X_T = X.T sigma = np.cov(X) sigma_inverse = np.linalg.inv(sigma) d1=[] for i in range(0, X_T.shape[0]): for j in range(i+1, X_T.shape[0]): delta = X_T[i] - X_T[j] d = np.sqrt(np.dot(np.dot(delta,sigma_inverse),delta.T)) d1.append(d) return d1


【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有