(1)首先考虑,咱们要想逻辑回归干啥。当样本y=1时,假设函数h趋近1,即向量乘积远大于0;当样本y=0时,假设函数h趋近0,即向量乘积远小于0
(2)接着咱们观察逻辑回归的代价函数只有一个样本即m=1时的样子。咱们令y=1,获得如图曲线,这时想让代价函数小的话,要求z远大于0;咱们将这条曲线修改成两条线段,右边水平,这做为支持向量机代价函数的一项。令y=0,获得如图曲线,想要代价函数小的话,要求z远小于0;咱们继续用两条线段代替曲线,获得支持向量机的另外一项。这两项定义为cost1(z)、cost0(z)算法
(1)将逻辑回归代价函数的负号放到里边去,而后两个对数项替换成cost函数
(2)去掉1/m这一项。由于在一个样本集中,由于m是相同的,带不带对代价函数的大小比较没影响
(3)概念上的变化,不用正则化参数权衡平均偏差和正则化项,而是用C参数权衡(实际是同样的,能够看作1/正则化参数)
通过三步加工,咱们就获得了支持向量机的代价函数安全
(1)逻辑回归输出的是几率,而后咱们人为规定一个临界值,判断0仍是1
(2)而支持向量机直接预测y是0仍是1网络
(1)当y=1时,后边一项为0,只有z大于等于1时前边一项逼近0
(2)当y=0时,前边一项为0,只有z小于等于-1时后边一项逼近0机器学习
所以与逻辑回归仅要求正负或者本身定临界值不一样,支持向量机要求更高,要求1和-1(我的理解:不是非黑即白了,在正负标签间有一段空白间距,有了过渡地带)。这就至关于嵌入了额外的安全因子,增大了准确性函数
(1)y=1时,偏差项大小由cost1决定,要求z大于1
(2)y=0时,偏差项大小由cost0决定,要求z小于-1性能
U转置乘V=V乘U的转置=V投影到U上的投影,乘U的模(投影是有符号的)学习
(1)当知足前边偏差项为0的条件之一时,代价函数只有正则化项一项,能够写做假设函数参数模的平方
(2)咱们假设样本集只有一个样本,那么z能够写做参数向量的模乘特征向量在参数向量上的投影,将乘积和1或者-1比较
(3)由于参数0为0,因此决策边界经过原点。由于参数变量和决策边界是正交的,因此参数向量和距离是平行的。当最短距离小时,特征向量的投影值也小,要符合一、-1的话,要求参数向量的模大,而参数向量的模大的话,代价函数的值就会变大,这与咱们尽可能要求代价函数小矛盾。这就是支持向量机能产生大间距分类的缘由spa