个人总结:从 SVM分类 到 线性支持回归SVR

回顾前面的SVM分类模型中,我们的目标函数是让最小,同时让各个训练集中的点尽可能远离自己类别一边的支持向量,即;若加入一个松弛变量,则目标函数变为,对应约束条件变为。 线性支持回归也是尽量将训练集拟合到一个线性模型。但是损失不是使用常用的均方差作为损失函数,而是定义一个常量,对于某一个点,如果,则认定为没有损失。若,则对应的损失为。 这个损失和均方差的区别在于,就会有损失。 如图蓝色透明带内的点是
相关文章
相关标签/搜索