【迁移攻击笔记】图像&模型同时迁移2017Universal adversarial perturbations

核心思想: 这篇17年的文章核心思想很简单: 初始化v=0没有扰动,然后对于每个样本加上扰动v后: 分类错误,则下一个样本; 分类正确,寻找一个微小的扰动 ,使得分类错误。 不断重复,直到在这样本中错误样本满足错误率。 所以可以理解成最原始最暴力的迁移攻击方法。然而最原始最暴力的方法往往也是最泛用的,所以对全数据集全网络都能通用。 算法和示意图如下: 图像迁移和网络迁移结果如下: 数学解释: 首先
相关文章
相关标签/搜索