深究机器学习的软肋:难以防范的对抗攻击,让机器产生了幻觉

本文来自AI新媒体量子位(QbitAI) 对抗范例(adversarial examples),是攻击者为了让机器学习模型产生错误而设计的输入数据,就像“机器产生了幻觉”。在这篇文章中,我们将展示对抗范例了如何通过不同媒介进行攻击,并讨论保护系统免受这种攻击难在何处。 在OpenAI,我们认为对抗范例是安全领域一个值得研究的方面,因为它们代表人工智能安全领域短期内能够处理的一个具体问题,而解决它是
相关文章
相关标签/搜索