统计学习方法[6]——逻辑回归模型

统计学习方法由三个要素组成:方法=模型+策略+算法算法

模型是针对具体的问题作的假设空间,是学习算法要求解的参数空间。例如模型能够是线性函数等。函数

策略是学习算法学习的目标,不一样的问题能够有不一样的学习目标,例如经验风险最小化或者结构风险最小化。学习

经验风险最小化中常见的损失函数有:0-1损失函数、残差损失函数、绝对值损失函数、平方损失函数、对数损失函数等等。spa

算法是按照上述策略求解模型的具体计算方法。模型定义了要求什么,策略定义了按照什么标准去求,算法则具体去解决。.net


线性回归模型blog

线性回归模型,众所周知就是给定给定训练集(Xi,Yi),模拟一个一次线性函数Y'=∑ΘiXi(模型),使得偏差J(Y,Y')尽量最小(策略)。同步

若是要用线性回归问题解决分类问题的话,须要将线性回归函数转换成0-1分布的函数,逻辑斯蒂函数就是这样一个函数,能够将值映射为区间(0,1)上,同时又能很好的表示几率意义。博客

那么如何求解参数使损失函数最小呢?io

固然能够用暴力搜索全部的参数值Θ,可是效率确定很低,因此用有目标的(启发式)搜索算法代替暴力搜索。这里的目标就是上述损失函数最小策略。function

假设空间参数是经验风险的函数!举个例子,对于

若是Θ 0 一直为 0, 则Θ 1与J的函数为:
 
若是有Θ 0与Θ 1都不固定,则Θ 0、Θ 1、J 的函数为:
 

梯度降低法

大体步骤以下:

一、随机初始化参数Θ,并给定一个学习速率α(降低的步长)

二、求解目标函数(损失函数)相对于各个参数份量Θi的偏导数

三、循环同步迭代Θi直到达到终止条件(迭代次数或者一个偏差值)

 
降低的步伐大小很是重要,由于若是过小,则找到函数最小值的速度就很慢,若是太大,则可能会出现overshoot the minimum的现象;
下图就是overshoot minimum现象:

 
若是Learning rate取值后发现J cost function增加了,则须要减少Learning rate的值;因此须要随时观察α值,若是J cost function变小了,则ok,反之,则再取一个更小的值。
下图详细的说明了梯度降低的过程:

 
下图就是模型、策略、算法结合获得统计学习方法的示例:

 

另外须要注意的是梯度降低法求解的是局部最优解(除非损失函数是凸的),跟初始点由很大的关系,能够屡次取不一样初始值求解后取最优值。

参考博客:http://blog.csdn.net/xiazdong/article/details/7950084

相关文章
相关标签/搜索