林轩田机器学习基石笔记(第27节)——VC Dimension of Perceptrons

一、复习2D PLA算法 如下图所示,左边红色部分表示如果数据集 D D 是线性可分的情况下,PLA算法最终会停下来,我们会得到一条能够把所有数据都二分为两类的线段,该线段能够保证在已知的数据上犯错的概率为0,即 Ein(g)=0 E i n ( g ) = 0 。 图中右边部分,则通过霍夫丁不等式从侧面证明了如果我们数据量够大,并且 dVC d V C 已知的情况下,我们可以保证 Ein(g)≈
相关文章
相关标签/搜索