DL/CV领域常见指标术语(FLOPS/mIoU/肴杂矩阵/F1-measure)------一篇入门 ...

打印 上一主题 下一主题

主题 855|帖子 855|积分 2565

1. FLOPS、FLOPs和GFLOPs

FLOPS: floating-point operations per second,每秒浮点运算次数,用来权衡硬件性能。
FLOPs:floating point of operations,是浮点运算次数,用来权衡算法、模型的复杂度。
GFLOPS:Giga Floating-point Operations Per Second,即每秒10亿次的浮点运算数,

 怎样盘算FLOPs?

 

 而在实际中,我们不可能自己盘算FLOPs,所以,有相关盘算FLOPs的三方库,一个是torchstat,一个是thop。
盘算实例:



 2.mIoU:

mIoU:mean Intersection over Union 平均交并比,盘算机视觉任务中常用的评估指标,特殊是在目标检测和语义分割任务当中。用于权衡模型的界限框或分割地区与真是界限框或真是分割地区之间的重叠程度。

盘算方法:

   (交并比)---------对于每一个预测的界限框或分割地区


  • 是预测地区与真实地区的重叠部分(交集)的面积。
  • 是预测地区和真是地区的总面积(并集),即二者的并集减去交集的面积。
 (平均交并比)------对每个样本或类别分别盘算 IoU,然后取它们的平均值
此中:


  • 是样本或类别的数目
  • 是第
    个样本或类别的IoU。
mIoU 的意义



  • 1.0 的 mIoU 表示模型的预测完全正确,预测地区和真实地区完全重合。
  • 0 的 mIoU 表示模型的预测完全错误,预测地区和真实地区没有任何重叠。
在目标检测和分割任务中,mIoU 越高,模型的性能越好。因此,mIoU 被广泛用于评估模型在处理惩罚物体定位或地区划分任务时的表现。
3. 肴杂矩阵

预测值(P)预测值(N)
真实值(T)TPFN
真实值(F)FPTN
指标说明:



  • precision:精度,即查准率

    • precision = TP / (TP + FP)   
    • 预测为正样本,并且确实为正样本 / 全部预测为正样本

  • recall:召回率,即查全率

    • recall = TP / (TP + FN) 
    • 预测为正样本,并且确实为正样本 / 实际上全部正样本

案例说明:


预测:红(负样本)+绿(正样本)一般来讲,当预测框和真实框IOU>=0.5时,被以为是正样本。
真实:蓝(正样本)

  • 图 TP + FP的数目为 4(即两个绿框和两个红框),进一步,TP 是 分类器预测为正样本并且预测对了,所以 TP 为 2 (两个绿框);同理 FP 是分类器预测为正样本但是预测错了,图中表明即分类器画出框了但是画了了,即 误检,所以 FP 为2(两个红框)
  • FN,分类器预测为负样本但是预测错了,在图中可以表明为,真实框我标出来了,分类器以为是负样本没标出来,即分类器 漏检,所以 FN为1(对应于图中下排第2个蓝框真实框没有检出)
precision = TP /(TP + FP)= 1/2
recall = TP /(TP + FN) = 2/3
4. F1-measure

1. 表明:

综合 precision 与 recall,当 F-meansure 较高时,precision 与 recall 都较高。
2. 盘算公式:

   F-meansure = 2 / (1/precision + 1/recall )
           = 2 * [ precision * recall / (precision + recall)]
  

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

罪恶克星

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表