《李宏毅机器学习》task2

《李宏毅机器学习》task2 1.偏差和方差 学习误差由偏差和方差而产生 过拟合,欠拟合 2.鞍点,全局最优和局部最优 3.梯度下降 Mini-Batch与SGD Batch与Mini-Batch,SGD的区别 如何根据样本大小选择哪个梯度下降 写出SGD和Mini-Batch的代码 4.交叉验证 5.归一化 6.回归模型评价指标 1.偏差和方差 学习误差由偏差和方差而产生 偏差与方差分别是用于衡
相关文章
相关标签/搜索