⽬标检测(⼀)⽬标检测评价指标
召回率(Recall),精确率(Precision),平均正确率(AP),交除并(IoU)
章鱼哥怎么画摘要
在训练YOLO v2的过程中,系统会显⽰出⼀些评价训练效果的值,如Recall,IoU等等。为了怕以后忘了,现在把⾃⼰对这⼏种度量⽅式的理解记录⼀下。
这⼀⽂章⾸先假设⼀个集,然后围绕这⼀测试集来介绍这⼏种度量⽅式的计算⽅法。
⼤雁与飞机
假设现在有这样⼀个测试集,测试集中的图⽚只由⼤雁和飞机两种图⽚组成,如下图所⽰:
假设你的分类系统最终的⽬的是:能取出测试集中所有飞机的图⽚,⽽不是⼤雁的图⽚。
家长会发言稿现在做如下的定义:
True positives : 飞机的图⽚被正确的识别成了飞机。
True negatives: ⼤雁的图⽚没有被识别出来,系统正确地认为它们是⼤雁。
软笔书法怎么练
Fal positives: ⼤雁的图⽚被错误地识别成了飞机。
Fal negatives: 飞机的图⽚没有被识别出来,系统错误地认为它们是⼤雁。
竹蜻蜓的玩法
假设你的分类系统使⽤了上述假设识别出了四个结果,如下图所⽰:
那么在识别出的这四张照⽚中:
True positives : 有三个,画绿⾊框的飞机。
Fal positives: 有⼀个,画红⾊框的⼤雁。
没被识别出来的六张图⽚中:
True negatives : 有四个,这四个⼤雁的图⽚,系统正确地没有把它们识别成飞机。
Fal negatives: 有两个,两个飞机没有被识别出来,系统错误地认为它们是⼤雁。
Precision 与 Recall
广州有什么山
Precision其实就是在识别出来的图⽚中,True positives所占的⽐率:
其中的n代表的是(True positives + Fal positives),也就是系统⼀共识别出来多少照⽚。
在这⼀例⼦中,True positives为3,Fal positives为1,所以Precision值是 3/(3+1)=0.75。
意味着在识别出的结果中,飞机的图⽚占75%。
Recall 是被正确识别出来的飞机个数与测试集中所有飞机的个数的⽐值:安宁是什么意思
Recall的分母是(True positives + Fal negatives),这两个值的和,可以理解为⼀共有多少张飞机的照⽚。
在这⼀例⼦中,True positives为3,Fal negatives为2,那么Recall值是 3/(3+2)=0.6。
意味着在所有的飞机图⽚中,60%的飞机被正确的识别成飞机.。
调整阈值
你也可以通过调整阈值,来选择让系统识别出多少图⽚,进⽽改变Precision 或 Recall 的值。
在某种阈值的前提下(蓝⾊虚线),系统识别出了四张图⽚,如下图中所⽰:
分类系统认为⼤于阈值(蓝⾊虚线之上)的四个图⽚更像飞机。
我们可以通过改变阈值(也可以看作上下移动蓝⾊的虚线),来选择让系统识别能出多少个图⽚,当然阈值的变化会导致Precision与Recall 值发⽣变化。⽐如,把蓝⾊虚线放到第⼀张图⽚下⾯,也就是说让系统只识别出最上⾯的那张飞机图⽚,那么Precision的值就是100%,⽽Recall的值则是20%。如果把蓝⾊虚线放到第⼆张图⽚下⾯,也就是说让系统只识别出最上⾯的前两张图⽚,那么Precision的值还是100%,⽽Recall的值则增长到是40%。
下图为不同阈值条件下,Precision与Recall的变化情况:
Precision-recall 曲线
如果你想评估⼀个分类器的性能,⼀个⽐较好的⽅法就是:观察当阈值变化时,Precision与Recall值的变化情况。如果⼀个分类器的性能⽐较好,那么它应该有如下的表现:被识别出的图⽚中飞机所占的⽐重⽐较⼤,并且在识别出⼤雁之前,尽可能多地正确识别出飞机,也就是让Recall值增长的同时保持Precision的值在⼀个很⾼的⽔平。⽽性能⽐较差的分类器可能会损失很多Precision值才能换来Recall值的提⾼。通常情况下,⽂章中都会使⽤Precision-recall曲线,来显⽰出分类器在Precision与Recall之间的权衡。
上图就是分类器的Precision-recall 曲线,在不损失精度的条件下它能达到40%Recall。⽽当Recall达到100%时,Precision 降低到50%。二年级上册数学期中考试题
Approximated Average precision
相⽐较与曲线图,在某些时候还是⼀个具体的数值能更直观地表现出分类器的性能。通常情况下都是⽤ Average Precision来作为这⼀度量标准,它的公式为:
在这⼀积分中,其中p代表Precision ,r代表Recall,p是⼀个以r为参数的函数,That is equal to taking the area under the curve.
实际上这⼀积分极其接近于这⼀数值:对每⼀种阈值分别求(Precision值)乘以(Recall值的变化情况),再把所有阈值下求得的乘积值进⾏累加。公式如下:
在这⼀公式中,N代表测试集中所有图⽚的个数,P(k)表⽰在能识别出k个图⽚的时候Precision的值,⽽ Delta r(k) 则表⽰识别图⽚个数从k-1变化到k时(通过调整阈值)Recall值的变化情况。
黑提子
在这⼀例⼦中,Approximated Average Precision的值
=(1 * (0.2-0)) + (1 * (0.4-0.2)) + (0.66 * (0.4-0.4)) + (0.75 * (0.6-0.4)) + (0.6 * (0.6-0.6)) + (0.66 * (0.8-0.6)) + (0.57 * (0.8-0.8)) + (0.5 * (0.8-0.8)) + (0.44 * (0.8-0.8)) + (0.5 * (1-0.8)) = 0.782.
=(1 * 0.2) + (1 * 0.2) + (0.66 * 0) + (0.75 * 0.2) + (0.6 *0) + (0.66 * 0.2) + (0.57 *0) + (0.5 *0) + (0.44 *0) + (0.5 * 0.2) = 0.782.
通过计算可以看到,那些Recall值没有变化的地⽅(红⾊数值),对增加Average Precision值没有贡献。Interpolated average precision
不同于Approximated Average Precision,⼀些作者选择另⼀种度量性能的标准:Interpolated Average Precision。这⼀新的不再使⽤P(k),也就是说,不再使⽤当系统识别出k个图⽚的时候Precision的值与Recall变化值相乘。⽽是使⽤:
也就是每次使⽤在所有阈值的Precision中,最⼤值的那个Precision值与Recall的变化值相乘。公式如下:
下图的图⽚是Approximated Average Precision 与 Interpolated Average Precision相⽐较。
需要注意的是,为了让特征更明显,图⽚中使⽤的参数与上⾯所说的例⼦⽆关。
很明显 Approximated Average Precision与精度曲线挨的很近,⽽使⽤Interpolated Average Precision算出的Average Precision值明显要⽐Approximated Average Precision的⽅法算出的要⾼。
⼀些很重要的⽂章都是⽤Interpolated Average Precision 作为度量⽅法,并且直接称算出的值为Average Precision 。PASCAL Visual Objects Challenge从2007年开始就是⽤这⼀度量制度,他们认为这⼀⽅法能有效地减少Precision-recall 曲线中的抖动。所以在⽐较⽂章中Average Precision 值的时候,最好先弄清楚它们使⽤的是那种度量⽅式。
IoU
IoU这⼀值,可以理解为系统预测出来的框与原来图⽚中标记的框的重合程度。
计算⽅法即检测结果Detection Result与 Ground Truth 的交集⽐上它们的并集,即为检测的准确率: