信息检索中的度量precison@k,recall@k,f1@k,MRR,ap,map,CG, DCG,NDCG 您所在的位置:网站首页 recollect和recall 信息检索中的度量precison@k,recall@k,f1@k,MRR,ap,map,CG, DCG,NDCG

信息检索中的度量precison@k,recall@k,f1@k,MRR,ap,map,CG, DCG,NDCG

#信息检索中的度量precison@k,recall@k,f1@k,MRR,ap,map,CG, DCG,NDCG| 来源: 网络整理| 查看: 265

转载自:信息检索中度量指标全解析

导读

由浅入深逐个解析信息检索中的度量指标。

我们如何评估前n个结果有多好?

问题1:二元相关性

让我们通过一个简单的玩具例子来理解各种评估指标的细节和权衡。我们有一个排序模型,它会为一个特定的查询返回5个最相关的结果。根据我们的ground-truth,第一个、第三个和第五个结果是相关的。 在这里插入图片描述

A. 排序不感知的度量

1. Precision@k 这个指标量化了排名前k的结果中有多少项是相关的。在数学上,由下式给出: 在这里插入图片描述 对于我们的例子,precision@1 = 1,因为前1结果中的所有项都是相关的。 同样,precision@2 = 0.5,因为前2个结果中只有一个是相关的。 我们可以计算出所有k值的precision分数。 在这里插入图片描述 precision@k的一个限制是它没有考虑相关的项目的位置。考虑具有相同数量相关结果的两个模型A和B,即5个中的3个。对于模型A,前三项是相关的,而对于模型B,后三项是相关的。尽管模型A更好,但对于这两个模型,Precision@5是相同的。

2. Recall@k 这个度量给出了查询的所有实际相关结果中在所有的实际的相关结果中的比例。在数学上: 在这里插入图片描述 对于我们的例子,recall@1 = 0.33,因为只存在3个实际相关项中的一个。 类似地,由于3个实际相关的项中只有2个项存在,故recall@3 = 0.67。 我们可以计算不同K值的召回分数。 在这里插入图片描述

3. F1@k 这是一个组合度量,通过取它们的调和平均值,将Precision@k和Recall@k结合在一起。我们可以这样计算: 在这里插入图片描述 利用前面计算的precision和recall的值,我们可以计算不同K值的F1-scores,如下图所示。 在这里插入图片描述

B. 排序感知的度量

虽然precision、recall和F1为我们提供了一个单值度量,但它们不考虑返回的搜索结果的顺序。为了解决这一局限性,人们设计了以下排序感知的度量标准:

Mean Reciprocal Rank(MRR) 当我们希望系统返回最佳相关项并希望该项位于较高位置时,这个度量是有用的。 在数学上:在这里插入图片描述 其中: ‖Q‖表示查询的总数 ranki表示第一个相关结果的排序 为了计算MRR,我们首先计算排序倒数。它只是第一个正确的相关结果的倒数,值的范围从0到1。 对于多个不同的查询,我们可以通过对每个查询取倒数的平均值来计算MRR。 在这里插入图片描述 我们可以看到,MRR并不关心剩余的相关结果的位置。所以,如果你的例子需要以最好的方式返回多个相关的结果,MRR不是一个合适的度量。 Average Precision(AP) 平均精度是衡量模型选择的所有与 ground-truth相关的项目是否都有较高的排序。与MRR不同,它考虑所有相关的项目。 数学上: 在这里插入图片描述 其中: rel(k)是一个指示函数,当第k位的项有相关性时为1。 P(k)是Precision@k度量 对于我们的例子,我们可以根据不同K的Precision@K值计算AP。 在这里插入图片描述为了说明AP的优势,让我们以前面的例子为例,但将3个相关的结果放在开头。我们可以看到,这个例子比上面的例子获得了一个更好的AP分数。 Mean Average Precision(MAP) 如果我们想计算多个查询的平均精度,我们可以使用MAP。它只是所有查询的平均精度的平均值。数学上: 在这里插入图片描述其中: Q是查询的总数 AP(q)是查询q的平均精度 问题2: 分等级的相关性

让我们以另一个玩具例子为例,其中我们不仅标注了相关或不相关的项目,而是使用了0到5之间的评分标准,其中0表示相关性最低,5表示相关性最高。 在这里插入图片描述 我们有一个排序模型,它会为一个特定的查询返回5个最相关的结果。根据我们的ground-truth,第一项的相关性得分为3,第二项的相关性得分为2,以此类推。

让我们了解评估这种类型的各种度量。

Cumulative Gain (CG@k) 这个度量使用了一个简单的概念来总结top-K条目的相关性分数。这个总分数称为累积收益。在数学上: 在这里插入图片描述 对于我们的例子,CG@2是5,因为我们将前两个相关性得分3和2相加。 在这里插入图片描述 同理,我们可以计算所有k值的累积收益: 在这里插入图片描述 虽然很简单,但CG并没有考虑到相关项目的顺序。因此,即使我们将一个不太相关的项交换到第一个位置,CG@2也是一样的。 在这里插入图片描述 Discounted Cumulative Gain (DCG@k) 我们看到了一个简单的累积收益是如何不考虑位置的。但是,我们通常希望具有高相关性得分的项目出现在一个更好的排序位置上。 所以,我们需要一些方法来惩罚他们的位置。DCG引入了一个基于对数的惩罚函数来降低每个位置的相关性得分。对于5个项,惩罚是: 在这里插入图片描述 使用这个惩罚,我们现在可以计算折扣累积收益,只需使用惩罚标准化过后的相关分数的总和。在数学上: 在这里插入图片描述为了理解对数惩罚的行为,让我们在x轴上绘制排名位置,在y轴上绘制相关性得分的百分比,即。正如所看到的,在位置1,我们不施加任何惩罚,分数保持不变。但是,分数的百分比指数递减从第1位的100%到第2位的63%,第3位的50%,以此类推。 在这里插入图片描述 现在为我们的例子计算DCG。 在这里插入图片描述 基于这些惩罚过的分数,我们现在可以计算不同k值下的DCG,只需将它们加起来。 在这里插入图片描述 对于DCG@K还有一种替代公式,如果相关的条目排名较低,那么惩罚就会更多。该方案在工业上更受青睐。 在这里插入图片描述 虽然DCG解决了累积收益的问题,但它有一定的局限性。假设查询Q1有3个结果,查询Q2有5个结果。那么有5个结果Q2的查询将会有一个更大的总体DCG分数。但我们不能说问题2比问题1好。 在这里插入图片描述 Normalized Discounted Cumulative Gain (NDCG@k) 为了允许跨查询比较DCG,我们可以使用NDCG,它使用相关项的理想顺序来规范化DCG值。让我们以之前的例子为例,我们已经计算了不同K值下的DCG值。 在这里插入图片描述 对于我们的例子,理想情况下,我们希望条目按照相关性得分的降序排序。 我们来计算这个排序下的理想的DCG(IDCG)。 现在,我们可以计算不同k的NDCG@k,通过对DCG@k除以 IDCG@k: 在这里插入图片描述 因此,我们得到的NDCG分数的范围在0到1之间。一个完美的排名会得到1分。我们还可以比较不同查询的NDCG@k分数,因为它是一个标准化分数


【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有