AI平台攻防案例及原理简单汇总

可能的三种类型的攻防: 1、对抗样本 2、ai平台外部部件漏洞 3、ai平台内部漏洞   对抗样本: 属于利用ai训练的基本原理产生的一种根本性的攻击方法。 主要原理是对训练模型添加适当的干扰,或者是故意向训练集中添加标签错误的数据,扰动训练出来的模型,使得模型不能正确识别某些物。主要针对分类模型。 案例可以参考:Kaggle首席技术官发布——(Kaggle)NIPS 2017对抗学习挑战赛起步指
相关文章
相关标签/搜索