林轩田机器学习技法第三讲-Kernel Support Vector Machine

上一讲讲到通过Dual Support Vector Machine我们最后的表达式看起来只与N有关,而和新转换域的维度d无关,但其实它隐藏在了Q的计算之中。这一讲来看一下,能否通过其他的方法来解决这个问题 首先回顾一下上一讲得到的表达式如下,通过二次规划的方法求解,得到α、w、b,从而最后等到我们的假设h,具体的求解过程可见上一讲。 但是有一个问题就是在计算qn,m时涉及到ZnTZm(z是x经过
相关文章
相关标签/搜索