你知道脑机接口中的“后门“攻击吗?它真的有可能在现实中实现

导读 机器学习在脑机接口中的成功应用,使脑机接口得到了快速的发展。然而,对抗攻击的发现让我们不得不重新思考机器学习模型的安全性。这些潜在的危险性给基于机器学习的脑机接口的实际应用提出了不可逃避的难题。华中科技大学伍冬睿教授研究团队在最新的工作中提出了实际可实现的污染攻击方法。通过在训练样本中加入少量的污染样本,这些污染样本能够在模型训练后在模型内创建一个"后门",具有后门钥匙的测试样本将被分类为攻
相关文章
相关标签/搜索