OpenAI详细解析:攻击者是如何使用「对抗样本」攻击机器学习的

原文来源:OpenAI 作者: Ian Goodfellow、Nicolas Papernot、Sandy Huang、Yan Duan、Pieter Abbeel、Jack Clark. 「雷克世界」编译:嗯~是阿童木呀、EVA 导语:一般来说,对抗样本(adversarial examples)是机器学习模型的输入,攻击者故意设计它们以引起模型出错;它们就像是机器的视觉错觉。这篇文章中,将展示
相关文章
相关标签/搜索