Pytorch系列之——正则化

正则化之weight decay 正则化与偏差-方差分解 pytorch中的L2正则化——weight decay 在机器学习、深度学习当中我们经常会听到regularization正则化这个概念,正则化这三个字到底是什么意思呢?如果直接从字面的意思来理解正则化是非常抽象的,但正则化的概念非常简单,就是减少方差的策略。那么什么是方差,什么是偏差呢? 误差可分解为:偏差、方差与噪声之和。即误差=偏差
相关文章
相关标签/搜索