对抗样本简介

一、什么是对抗样本   对抗样本是一类被恶意设计来攻击机器学习模型的样本。它们与真实样本的区别几乎无法用肉眼分辨,但是却会导致模型进行错误的判断。对抗样本的存在会使得深度学习在安全敏感性领域的应用收到威胁。   如下图所示,通过在自然图片上加入一些人工噪声来“欺骗”神经网络,使得神经网络输出错误的预测结果。   以经典的二分类问题为例,机器学习模型通过在样本上训练,学习出一个分割平面,在分割平面的
相关文章
相关标签/搜索