svm的几个疑问

支持向量所在的超平面为何是theta^t * x= -1 和theta^t * x = -1 (有时也写为theta^t * x + b = 0的形式,但是把x0总设为1,b也可以作为theta的一部分) 李航的《统计学习方法》里有比较严密的推导,可是我看不太懂。但是书里提到,合页损失函数和那套推理是等价的,所以可以用吴恩达在《机器学习》课程里的图来理解。至于为什么等价,请看书。 逻辑回归的损失函
相关文章
相关标签/搜索