Explaining and Harnessing Adversarial Examples 论文阅读

Explaining and Harnessing Adversarial Examples 注:研究不深,纯个人理解,可能有误,希望批评指正 1论文简介: Szegedy提出有几种机器学习的模型容易受到对抗样本的攻击。在训练数据的不同子集上训练的具有不同体系结构的模型会误分类同一对抗样本。这表明对抗样本暴露了我们训练算法中的基本盲点。 为什么?: 猜想:由于深度神经网络的极端非线性所致,极端非线
相关文章
相关标签/搜索