机器学习:支持向量机SVM-软间隔

上两篇( 机器学习:支持向量机SVM简述,机器学习:支持向量机SVM对偶问题)都是讨论的硬间隔,即要求每个样本的都正确分类,但在实践中这个要求可能不太容易实现,所以提出软间隔:允许某些样本不满足约束Yi(w'Xi+b)>=1. 虽然允许某些样本不满足约束,但不满足约束的样本应该尽可能少,于是优化目标可以写成: 其中: 是“0/1损失函数”。但该函数非凸、非连续,数学性质不好,所以出现了一些替代函数
相关文章
相关标签/搜索