高斯,拉普拉斯分布

一般来说我们可以使用正则化来避免过度拟合。但是实际上什么是正则化,什么是通用技术,以及它们有何不同? “正规化是我们对学习算法所做的任何修改,旨在减少其泛化误差,而不是其训练误差。” 换句话说:通过防止算法过度拟合训练数据集,可以将正则化用于训练对看不见的数据更好地泛化的模型。 那么,如何修改逻辑回归算法以减少泛化误差呢? 我发现的常见方法是高斯,拉普拉斯,L1和L2。 高斯还是L2,拉普拉斯还是
相关文章
相关标签/搜索