coursera Machine Learning--吴恩达--week2 学习笔记

1多变量线性回归 (对比单变量线性回归) 1.1多变量假设:输入为多维特征。 1.2拟合函数: 这里令x0 = 1,将变量向量化,向量化的过程如下: 1.3 损失函数和梯度下降 对比单变量,损失函数知识参数变多: 梯度下降法也没有变,只是需要同时更新的参数变多: - 参数变多,加之样本数量变多,原来的批梯度下降收敛速度慢,改进方式为:随机梯度下降 1.4 feature scaling 让所有fe
相关文章
相关标签/搜索