机器学习之核函数逻辑回归(机器学习技法)

从软间隔SVM到正则化 从参数ξ谈起 在软间隔支持向量机中参数ξ代表某一个资料点相对于边界犯错的程度,如下图: 在资料点没有违反边界时ξ的值为0,在违反边界时的值就会大于0。所以总的来说ξ的值等于max(1 - y(WZ + b) , 0)。所以我们把问题合并如下: 这样这个问题就变成了一个没有条件的问题。 与L2正则化的关系 上述简化后的问题与L2的正则化极其相似: 它们的目标都是最小化W²与一
相关文章
相关标签/搜索