机器学习笔记——8 学习的通常理论

机器学习笔记——8 学习的通常理论 在第一章绪论中,咱们曾经讲到,机器学习是关于学习算法的学问,在前面的文章中,咱们主要介绍了一些具体的学习算法的例子,而本文将从更高和更抽象的角度,讨论学习算法的通常化的理论,主要涉及到泛化偏差(generalization error) 和经验偏差(empirical error) 之间的量化理论,以及咱们为了得到有最小泛化偏差的假设,但实际上倒是经过最小化经验
相关文章
相关标签/搜索