logistic回归是使用最多的分类算法算法
预测值:yε{0, 1}, 0表明负类(No, 假设不成立);1表明正类(Yes,假设成立)网络
应用:邮件分类(垃圾邮件 or 非垃圾邮件)函数
logistic函数又称Sigmoid函数,是一个在生物学中常见的S型函数,也称为S型生长曲线。因为其单增以及反函数单增等性质,常被用做神经网络等阀值函数,将变量映射到0-1之间,因此logistic函数到预测值:0≤y≤1学习
logistic方程式:g(z) = 1/(1 + e-z),0≤g(z)≤1优化
线性回归假设函数:h(x) = θTxspa
因此,logistic假设函数:h(x) = g(θTx) = 1/(1 + e-θTx),0≤h(x)≤1
blog
由于预测值y只能取值0或者1,根据几率在给定参数θ下几率P(y=1)和P(y=0)的和为1,即:P(y=0;θ) + P(y=1;θ) = 1
it
根据logistic图形class
因此z=0是假设函数的决策界限,决策界限是假设函数的一个属性,它把假设函数图形分红两半:y=0和y=1变量
训练集:{(x1,y1),(x2,y2),(x3,y3),...,(xm,ym)} ,m个样本
X = [x0 x1 ... xm]T, x0=1, yε{0, 1}
h(x) = 1/(1 + e-θTx)
线性回归损失函数:J(θ)=Σ(h(xi)-yi)2/m, iε{1, m}
令Cost(h(xi),yi)=(h(xi)-yi)2
因此,J(θ)=Σ(h(xi)-yi)2/m=ΣCost(h(xi),yi)/m, iε{1, m}
损失函数:
结合图形:
一、当y=1:
二、当y=0:
J(θ)=Σ(h(xi)-yi)2/m=ΣCost(h(xi),yi)/m, iε{1, m}
Cost(h(x), y)=-log(h(x)), y=1
Cost(h(x), y)= -log(1-h(x)), y=0
简化损失函数:
Cost(h(x), y)=-log(h(x))-(1-y)log(1-h(x))
因此梯度降低:J(θ)=Σ(h(xi)-yi)2/m=-Σyilog(h(xi))+(1-yi)log(1-h(xi))/m, iε{1, m}
minJ(θ): repeat{ θj := θj-α(∂/∂θj)J(θ)}
梯度降低和缩放一样适用于logistic回归
以上三种算法的优势:不须要选择学习率,比梯度降低收敛速度快
缺点:比梯度降低算法复杂
简化为二分类问题来处理,好比三分类简化为三个二分类来处理