Adversarial examples based on object detection tasks: A survey》论文阅读笔记

这是一篇关于目标检测任务中对抗样本攻击的综述论文。文章介绍了深度学习在计算机中的应用,以及对抗样本攻击的相关概念和方法,其中重点讨论了目标检测任务中基于分类和回归的对抗样本攻击,并对其他相关攻击方法进行了总结,最后得出结论并展望未来研究方向。

1.引言

  • 深度学习背景:深度学习在处理图像或视频数据方面具有优势,广泛应用于计算机视觉任务,但由于深度网络的复杂结构,其存在脆弱性,容易受到攻击。
  • 目标检测任务:传统目标检测方法基于滑动窗口和传统机器学习框架,性能受限;基于深度学习的方法如 R - CNN、Fast R - CNN、YOLO 和 Faster R - CNN 等取得了显著进展,但也带来了网络的脆弱性问题。
  • 对抗样本攻击:作为主流攻击方法,为在目标检测任务中产生扰动提供了有效思路。现有研究大多侧重于分类任务,而目标检测任务包括定位和分类,因此有必要对目标检测中的对抗攻击进行综述。

2.相关术语

  • 对抗样本攻击:通过在原始图像上添加人工扰动来误导网络,核心思想是基于网络梯度生成扰动。
  • 对抗扰动:对抗样本的主要元素,通常基于网络梯度生成,用于欺骗网络输出错误预测。
  • 白盒攻击和黑盒攻击:白盒攻击拥有网络的详细信息,包括模型内部参数;黑盒攻击则没有网络信息,通常使用梯度估计或其他白盒攻击的可转移性。
  • 梯度攻击

你可能感兴趣的:(目标检测,论文阅读,笔记)