Python与人工神经网络(7)——其余正则化方法

上期的文章详细说到了L2正则化方来减小过分拟合,我当时说既然有L2,就应该有L0,L1。我也确实说对了,然而没想到做者在这本书里面没有讲到L0,除了L1以外,做者还讲了两种方法,一种叫Dropout(我不知道怎么翻译,也没有查到),另外一种是数据集扩增法。咱们先从L1法开始吧。微信 L1网络 L1跟咱们上期说的L2很是相似,只不过L2的成本函数是这样的:微信开发 而L1的成本函数是这样的:机器学习
相关文章
相关标签/搜索