Seventh week of machine learning on Coursera

如果训练集样本线性可分,那么在样本空间肯定能找到一个划分超平面将正负样本分隔开。 在之前学习的逻辑斯蒂回归(感知机)基于梯度下降的方法来求得这个超平面。但是这种方法求得的超平面是无穷个的(指的是感知机使用梯度下降迭代更新 ω和b 的过程中,会产生很多超平面方程,具体可参考《统计学习方法》例2.1),那么如何才能找到最优的超平面呢? 由此就引出了我们这节的主题—Support Vector Mach
相关文章
相关标签/搜索