(深度学习)目标检测常见术语

文章目录

  • Anchor
  • IoU(Intersection over union)
  • NMS(Non-max suppression)
  • RP(Region Proposal)
  • BN(Batch Normalization)
  • CEL(Cross Entropy Loss)
  • Softmax
  • Logistic Regression
  • Early Stopping
  • Dropout
  • Momentum and learning decay

Anchor

简言之就是基于深度学习目标检测中提前预设的一组不同尺度不同位置的固定参考框。这个Anchor在Faster RCNN上面也叫reference boxes,也就是参考框。

1.传统目标检测:
金字塔多尺度+遍历滑窗的方式,逐尺度逐位置判断"这个尺度的这个位置处有没有认识的目标",非常笨重耗时。

2.基于深度学习的目标检测:
覆盖几乎所有位置和尺度,每个参考框负责检测与其交并比大于阈值 (训练预设值,常用0.5或0.7) 的目标,anchor技术将问题转换为"这个固定参考框中有没有认识的目标,目标框偏离参考框多远",不再需要多尺度遍历滑窗,真正实现了又好又快,如在Faster R-CNN和SSD两大主流目标检测框架及扩展算法中anchor都是重要部分。

IoU(Intersection over union)

NMS(Non-max suppression)

RP(Region Proposal)

BN(Batch Normalization)

Batch Normalization(简称BN)中的batch就是批量数据,即每一次优化时的样本数目,通常BN网络层用在卷积层后,用于重新调整数据分布(有三)

使用BN的好处:(龙龙)
1.收敛速度变快(converge faster)(不再处于sigmoid的饱和区,梯度信息更大,更易搜索到最优解)
2.更稳定(对于超参数调整没那么敏感,如相比于不用BN时,减少微调lr就出现梯度弥散或爆炸现象)

CEL(Cross Entropy Loss)

Softmax

Logistic Regression

Early Stopping

Dropout

Momentum and learning decay

你可能感兴趣的:(Deep,Learning)