对抗样本文章笔记(三)

论文笔记–Universal Adversarial Perturbations 目标: 得到一些通用扰动,这些扰动不是针对某一样本的,而是可以对整个服从同一分布的数据集中的大部分样本进行干扰,使它们发生误分类。 一、引入 已经有大量研究表明,在很多情况下,给图片加一点小的扰动就会使分类器产生错误分类,这使得系统安全性下降,容易受到外部攻击。目前产生对抗样本的方法主要有优化、梯度上升、搜索等,这些
相关文章
相关标签/搜索