一、逻辑回归(Logistic regression)是一种用于解决二分类(0 or 1)问题的机器学习方法,即该方是一个分类算法。
• 典型应用:
• 图像分类
• 垃圾邮件检测
• 购买商品预测
• …算法
二、Sigmoid 函数
Sigmoid函数,也称为逻辑函数(Logistic function)
微信
直观理解
• 将任意的输入映射到了[0,1]区间咱们在线性回归中能够获得一个预测值,再将该值映射到Sigmoid 函数中这样就完成了由值到几率的转换,也就是分类任务。机器学习
三、逻辑回归 v.s. 线性回归函数
都是回归问题
•线性回归的回归目标是(−∞, +∞) •逻辑回归的回归目标是(0, 1),因此经常用做分类
• We will fit a regression function on P(Y=1|X)学习
linear regression----> logistic regression优化
四、逻辑回归
对于二分类问题,咱们能够:
orm
咱们将 f(x,w)看作是可能性(几率),那么咱们能够获得:
cdn
五、最大似然几率
对于所有N个样本,所有分类正确的几率是
视频
那么咱们的目标就是最大化J(w)。blog
六、对数似然几率
将上式子直接很差优化,那么咱们取对数
那么咱们的目标就是最大化L(w)
七、最大log似然求解
We could learn w by maximizing the log likelihood using gradient ascent
二分类扩展到多分类
一对多(One v.s. other) • 区分[cat, dog, bird]
• 二值分类器:clf_bin
• 猫的分类器:
• if_cat = clf_bin((X_cat,Y_cat), (X_ncat,Y_ncat))
• 狗的分类器:
• if_dog = clf_bin((X_dog,Y_dog), (X_ndog,Y_ndog))
• 鸟的分类器:
• if_bird = clf_bin((X_bird, Y_bird), (X_nbird, Y_nbird))
一、一对多(One v.s. other)
一对多(One v.s. other)
二分类扩展到多分类
一对一(One v.s. One) • 区分[cat, dog, bird]
• 二值分类器:clf_bin
• 猫/狗的分类器:catdog_clf = clf_bin(..,..)
• 猫/鸟的分类器:catbird_clf = clf_bin(..,...)
• 狗/鸟的分类器:dogbird_clf = clf_bin(..,..)
一、一对一(One v.s. One)
而后进行投票,票数多赢,好比两个分类器都投cat,那么就是cat