安全AI挑战者计划第三期 - 文本分类对抗攻击——No.4 F-LAB-sparrow组 比赛攻略/开源代码

阿里清华联合天池算法比赛传送链接 官方论坛本文链接 1. 提交的部分对抗样本 原始文本: (以下为辱骂场景内容,少儿不宜) 生成对抗文本: 2. 比赛思路 本次比赛为在黑盒场景下的中文文本对抗攻击,应用场景为中文脏话分类,比赛对于生成的对抗样本有以下两个要求:被后台模型识别出错; 不影响人类识别。 我们要攻击的黑盒模型数量未知,算法未知。评测标准非常强悍,不但在评判得分时,设有四种相似度的距离度量
相关文章
相关标签/搜索