【学习笔记】斯坦福大学公开课: cs229 Learning Theory【下】

上回讲到了,当假设空间H是有限集时,当咱们的训练数据的数目知足必定要求的时候,使用ERM选出的假设h^的经验偏差可以对其泛化偏差作一个很好的估计,两者以很大几率很是接近,术语叫作“一致收敛”;并且,h^的泛化偏差与理想情况下的假设h*的泛化偏差也以大几率接近,咱们也获得了对应的一致收敛定理。那么,当H是无限集的时候会怎么样呢?算法 我的认为,Ng老师这节课讲的不是很透彻,至少我听完一遍以后仍是云里
相关文章
相关标签/搜索