Virtual Adversarial Training: A Regularization Method for Supervised and Semi-Supervised Learning

arxiv链接 前言 有时候, 输入数据加入细微的扰动, 都会让模型结果大相径庭. 因此, 我们总是希望训练结果的分布是光滑的, 这样才能保持稳定. 但在连续分布的空间中, 总是存在过大的间隙, 这些间隙只能靠更多的数据或减小网络复杂度(正则)的方法让它尽可能光滑. VAT同样是为了解决光滑问题, 且解释性更强, 也更直观. 我只读了文章前4页, 做个大概了解. 思路 一个图片是N维中的一个点P,
相关文章
相关标签/搜索