【学习笔记】斯坦福大学公开课: cs229 Learning Theory【下】

上回讲到了,当假设空间H是有限集时,当我们的训练数据的数目满足一定要求的时候,使用ERM选出的假设h^的经验误差能够对其泛化误差做一个很好的估计,二者以很大概率非常接近,术语叫做“一致收敛”;而且,h^的泛化误差与理想状况下的假设h*的泛化误差也以大概率接近,我们也得到了对应的一致收敛定理。那么,当H是无限集的时候会怎么样呢? 个人认为,Ng老师这节课讲的不是很透彻,至少我听完一遍之后还是云里雾里
相关文章
相关标签/搜索