论文阅读-《Towards a Robust Deep Neural Network in Texts: A Survey》

论文下载地址:https://arxiv.org/pdf/2004.13820v1.pdf   摘要 深度神经网络(DNN)在各种任务(例如图像分类,语音识别和自然语言处理)中均取得了显著成功。但是,研究表明,DNN模型容易受到对抗性示例的攻击,这些示例会通过在正常输入中添加无法察觉的扰动而导致错误的预测。关于图像领域对抗性例子的研究已经得到了很好的研究,但是在文本上,研究还不够,更不用说对该领域
相关文章
相关标签/搜索