凸函数与凹函数

    最近在学机器学习的逻辑回归,它的思路很简单,最开始我们做的是线性回归,也就是根据已知样本拟合出一条能够描述其分布的线来,而它的评价标准是最小平方差。     为什么是最小平方差,而不是诸如差的绝对值之类的评价指标,这个就涉及到“最小二乘法”的思想,我们认为线性回归的预测值与真实值之间的差值是符合高斯分布的,对这个的评估就转化为对正态分布表达式中参数的评估,用极大似然估计,便得到损失函数的表
相关文章
相关标签/搜索