机器学习笔记week1——奥卡姆剃刀原则、L1与L2范数正则化、模型泛化性

本系列是学习伯禹《机器学习》的笔记,主要记录自己在学习过程中的盲点和细节继续加油叭fighting 本篇目录 1 奥卡姆剃刀原则 2 L1 与 L2 范数正则化 2.1 L1与L2范数正则化可以降低过拟合程度: 2.2 L1正则化和L2正则化: 2.3 L1正则化不能求导吗?那怎么优化呀? 2.4 为什么一般用L2比L1多? 3 模型泛化性 3.1 泛化能力 3.2 泛化误差 3.3 泛化误差上界
相关文章
相关标签/搜索