Explaining and Harnessing Adversarial Examples

Explaining and Harnessing Adversarial Examples 包括神经网络在内的一些机器学习模型,始终对对抗性样本进行错误分类–通过对数据集中的例子应用小的但有意的最坏情况下的扰动形成的输入,这样扰动的输入导致模型以高置信度输出一个错误的答案。早期解释这种现象的尝试集中在非线性和过拟合上.我们反而认为,神经网络对对抗性扰动的脆弱性的主要原因是它们的线性性质。这种解释
相关文章
相关标签/搜索