声明:本博客整理自博友@zhouyong计算广告与机器学习-技术共享平台,尊重原创,欢迎感兴趣的博友查看原文。html
符号定义git
这里定义《深刻浅出ML》系列中涉及到的公式符号,如无特殊说明,符号含义均按下述定义解释:面试
符号 | 含义 |
---|---|
\(x_j\) | 第\(j\)维特征 |
\(x\) | 一条样本中的特征向量,\(x=(1, x_1, x_2, \cdots, x_n)\) |
\(x^{(i)}\) | 第\(i\)条样本 |
\(x_{j}^{(i)}\) | 第\(i\)条样本的第\(j\)维特征 |
\(y^{(i)}\) | 第\(i\)条样本的结果(label) |
\(X\) | 全部样本的特征全集,即\(X=(x^{(1)},x^{(2)}, \cdots, x^{(m)})^T\) |
\(Y\) | 全部样本的label全集,即\(Y=(y^{(1)},y^{(2)}, \cdots, y^{(m)})^T\) |
\(w\) | 参数向量,即\(w=(w_0, w_1, \cdots, w_n)\) |
\(w_j\) | 第\(j维\)参数 |
回归技术在整个数据科学体系中占有很是重要的位置,回归分析是统计学中的相关分析知识体系中重要组成部分。在机器学习中,回归、分类和标注共同构成了监督学习技术。算法
监督学习(supervised learning)是机器学习在工业界应用最广的一个领域分支。在学术界中也是研究最多的领域之一。你们都知道的数据挖掘十大经典算法中,监督学习技术占据6席。框架
在介绍具体的回归技术以前,有必要探讨下如下几个问题。回归分析是什么?为何要使用回归分析呢?机器学习
什么是回归分析?分布式
回归分析是解决预测建模任务时的一种方法,用于研究自变量与因变量之间的关系。该方法主要用于预测、时间序列建模以及寻找变量之间的因果关系。 举例,rash driving和number of road accidents by a driver经过回归技术能够进行更好的研究。ide
回归分析是用于建模和数据分析的一个重要工具。这里,咱们用曲线/直线去拟合数据点,但愿全部数据点到曲线或直线的距离差别之和最小(后面会给出公式量化)。函数
上图是某一阶段的股票指数波动示意图,用一条(红色)曲线拟合真实数据。工具
为何要使用回归分析?
正如上面描述,回归分析多用于创建两个或多个变量之间的关系表达。咱们经过一个例子理解这个问题:
假如,你想根据当前的经济环境预估企业的营收增加状况。公司最近的财报代表营收增加大约是经济增加的2.5倍。利用这个关系,就能够根据当前和过去的营收和经济数据,预测公司将来的营收增加状况。
使用回归分析有诸多好处,好比:
还能够代表多个自变量(特征)对因变量(结果)的影响程度(根据feature对应权重大小).
同时,回归分析也能够去比较两个变量之间的影响,好比促销活动的次数与价格波动的影响。这些有助于帮助市场研究人员/数据分析师/数据科学家去消除或评估最佳的一组变量用于创建预测模型。
回归技术分类
有不少种不一样的回归技术可作预测。根据目标变量的个数、因变量的类型以及回归函数的形状这三个维度对回归技术作一个归类。咱们从回归家族中拿出两个经典的回归技术——线性回归和逻辑斯蒂回归,详细阐述其技术原理和应用场景。
一睹为快,简要的看下两者在变量上的差别:
方法 | 自变量(特征) | 因变量(结果) | 关系 |
---|---|---|---|
线性回归 | 连续或离散 | 连续实数 | 线性 |
Logistic回归 | 连续或离散 | (0,1)之间连续值 | 非线性 |
线性回归是最被普遍应用的建模技术之一。顾名思义,就是用一组变量(或特征)的线性组合,来创建与结果的关系。即指望用一条最佳的直线(被称为回归线)来表示因变量(\(Y\))和一个或多个自变量(\(X\))之间的关系。
模型表达
$$
y(x, w) = w_0 + w_1 x_1 + \cdots + w_n x_n \qquad (ml.1.1.1)
$$
其中,\(x_1,x_2,\cdots,x_n\)表示自变量(集合);\(y\)是因变量;\(w\)为参数向量;\(w_i\)表示对应自变量(特征)的权重,\(w_0\)是偏倚项(又称为截距)。
关于参数\(w\):
- 在物理上能够这样解释:在自变量(特征)之间相互独立的前提下,\(w_i\)反映自变量\(x_i\)对因变量\(y\)的影响程度,\(w_i\)越大,说明\(x_i\)对结果\(y\)的影响越大。
- 经过每一个自变量(特征)前面的参数,能够很直观的看出哪些特征份量对结果的影响比较大。
- 在统计中,\(w_1,w_2,\cdots,w_n\)称为偏回归系数,\(w_0\)称为截距。
若是令\(x_0=1, y(x,w)=h_{w}(x)\), 能够将公式\((ml.1.1.1)\)写成向量形式,即:
$$
h_{w}(x) = \sum_{i=0}^{n} w_i x_i = w^T x \qquad(ml.1.1.2)
$$
其中,\(w=(w_0, w_1, \cdots, w_n)\),\(x=(1, x_1, x_2, \cdots, x_n)\) 均为向量,\(w^T\)为\(w\)的转置。
公式\((ml.1.1.2)\)中,假设特征空间与输入空间\(x\)相同。
准确的讲,模型表达式要创建的是特征空间与结果之间的关系。在一些应用场景中,须要将输入空间映射到特征空间,而后建模. 定义映射函数为\(\phi(x)\),所以咱们能够把公式\((ml.1.1.2)\)写成更通用的表达方式:
$$
h_w(x) = w^T \phi(x)
$$特征映射相关技术,包括特征哈希、特征学习、Kernel等,在后面的章节中会详细介绍。
参数学习准则
公式\((ml.1.1.2)\)中的参数向量\(w\)是\(n+1\)维,每一个参数的取值是实数集合,也就是说参数向量\(w\)在\(n+1\)维实数空间中取值结果有无穷种可能。
那么,如何利用一个规则或机制帮助咱们评估求得的参数\(w\),而且使获得的线性模型效果最佳?直观地认为,若是求得的参数\\(w\)线性求和后,获得的结果\(h_{w}(x)\)与真实值\(y\)之差越小越好。
这是咱们须要引入一个函数用来衡量\(h_{w}(x)\)表示真实值\(y\)好坏的程度,该函数称为损失函数(loss function,也称为错误函数)。数学表示以下:
$$
\begin{align}
& J(w) = \frac{1}{2} \sum_{i=1}^{m} \left(h_{w}(x^{(i)}) - y^{(i)} \right)^2 \\\
& \min_{w} \quad J(w)
\end{align} \qquad (ml.1.1.3)
$$
这个损失函数用的是\(x^{(i)}\)的估计值\(h_{w}(x^{(i)})\)与真实值\(y^{(i)}\)之差的平方和。从优化的角度讲,公式\((ml.1.1.3)\)是待优化的目标函数(Object Function)(若是不考虑其它问题,诸如过拟合等),可将其转化为最优化问题求参数。
如何调整参数\(w\)使得\(J(w)\)取得最小值?方法有不少,这里先介绍两种比较经典的方法,即最小二乘法和梯度降低法。
最小二乘法(Least Square)
最小二乘法是一种彻底数学描述的方法,直接给出闭式解结果。它用\(X\)表示观测数据中的特征矩阵,结果表示成\(Y\)向量,目标函数还是\((ml.1.1.3)\),那么\(w\)可直接用下面公式表示:
$$
w = (X^T X)^{-1} X^T Y \qquad \qquad (ml.1.1.4)
$$
公式来源:
\(\qquad X^T X w = X^T Y \)
梯度降低法(Gradient Descent)
因为最小二乘法直接进行矩阵运算(求逆等),尽管能够获得全局最优解。可是在互联网海量数据背景下的回归分析或预测问题,其计算效率较低,甚至没法完成(涉及超大矩阵的求逆运算)。
而基于梯度法求解参数是一个不错的选择,缘由主要有2点:
若是目标函数是凸函数,批梯度法可保证能获得最优解,随机梯度法也能近似获得最优解。
基于梯度法求解回归问题的目标函数极值问题,将在《最优化算法》系列中详细讲解。
最小二乘法与梯度降低法求解异同
相同点
- 本质相同:两种求解方法都是在给定已知数据(自变量\(x\),因变量\(y\))的前提下对因变量\(y\)算出一个估值函数(\(x与y\)关联表达式),而后对给定的新输入\(x\)经过估值函数得出\(y\)。
- 目标相同:都是在已知数据的框架下,使得估算值与真实值的之差的平方和尽量小。
不一样点
实现方法与结果不一样:最小二乘法直接经过创建等价关系找到全局最小,非迭代法。而梯度降低法做为迭代法的一种,先给定一个参数向量初始值,而后向目标函数降低最快的方向调整(即梯度方向),在若干次迭代以后找到全局最小。
相比最小二乘法,随机梯度降低法的一个缺点是:在接近极值时收敛速度变慢,而且该方法对初始值的选取比较敏感。
通常地,机器学习中不一样的模型会有相应的目标函数。而回归模型(尤为是线性回归类)的目标函数一般用平方损失函数做为优化的目标函数(即真实值与预测值之差的平方和)。为何要选用偏差平方和做为目标函数呢?答案能够从几率论中的中心极限定理、高斯分布等知识中找到。
中心极限定理
目标函数的几率解释须要用到中心极限定理。中心极限定理自己就是研究独立随机变量和的极限分布为正态分布的问题。
中心极限定理公式表示:
设\(n\)个随机变量\(X_1, X_2, \cdots, X_n\)相互独立,均具备相同的数学指望与方差,即\(E(X_i) = \mu\); \(D(X_i) = \sigma^2\)。令\(Y_n\)为随机变量之和,有
$$
Y_n = X_1 + X_2 + \cdots + X_n \qquad (n.ml.1.1.1)
$$$$
Z_n = \frac {Y_n - E(Y_n)} {\sqrt{D(Y_n)}} = \frac {Y_n - n \mu} {\sqrt{n} \sigma} \rightarrow \mathcal{N}(0,1) \qquad(n.ml.1.1.2)
$$称随机变量\(Z_n\)为\(n\)个随机变量\(X_1, X_2, \cdots, X_m\)的规范和。
中心极限定理定义:
设从均值为\(\mu\)、方差为\(\sigma^2\)(有限)的任意一个整体中抽取样本量为\(n\)的样本,当\(n\)充分大时,样本均值的抽样分布[\(\frac{1}{n} Y_n\)]近似服从于均值为\(\mu\)、方差为\(\sigma^2\)的正态分布。
高斯分布
假设给定一个输入样例\(x^{(i)}\)根据公式\((ml.1.1.1)\)获得预测值\(w^{T}x^{(i)}\)与真实值\(y^{(i)}\)之间存在偏差,即为\(\epsilon^{(i)}\)。那么,它们之间的关系表示以下:
$$
y^{(i)} = w^T x^{(i)} + \epsilon^{(i)} \qquad (ml.1.1.5)
$$
而这里假设偏差\(\epsilon^{(i)}\)服从标准高斯分布是合理的。解释以下:
回归模型的最终目标是创建自变量\(x\)与结果\(y\)之间的关系(经过函数表达式),但愿经过\(x\)能较准确的表示结果\(y\)。
而在实际应用场景中,很难甚至不可能把致使\(y\)结果的全部变量(特征)都找出来,并放到回归模型中。那么模型中存在的\(x\)一般认为是影响结果\(y\)最主要的变量集合(又称因子, 在ML中叫作特征集)。根据中心极限定理,把那些对结果影响比较小的变量(假设独立同分布)之和认为服从正态分布是合理的。
示例说明偏差服从高斯分布是合理的:
Andrew Ng《机器学习》课程第1节的线性回归例子中,根据训练数据创建房屋的面积\(x\)与房屋的售价\(y\)之间的函数表达。
它的数据集中把房屋面积最为主要的变量。除此以外咱们还知道房屋所在的地段(地铁、学区、城区、郊区),周边交通情况,当地房价,楼层,采光,绿化面积,… 等等诸多因素会影响房价。
在实际中,因数据收集问题可能拿不到全部影响房屋售价的因素(变量),能够假设多个因素变量相互独立,根据中心极限定理,认为变量之和服从高斯分布。即:
$$
\epsilon^{(i)} = y^{(i)} - w^T x^{(i)} \rightarrow \mathcal{N}(0,\sigma^2) \qquad(n.ml.1.1.3)
$$
那么\(x\)和\(y\)的条件几率可表示为:
$$
p(y^{(i)} | x^{(i)}; w) = \frac{1}{\sqrt{2\pi} \sigma} \exp {\left(- \frac{(y^{(i)} - w^T x^{(i)})^2}{2 \sigma^2}\right)} \qquad(ml.1.1.6)
$$
极大似然估计与损失函数极小化等价
根据公式\((ml.1.1.6)\)估计获得一条样本的结果几率,模型的最终目标是但愿在所有样本上预测最准,也就是几率积最大,这个几率积就是似然函数。优化的目标的函数即为似然函数,表示以下:
$$
\max_{w} \quad L(w) = \prod_{i=1}^{m} \frac{1}{\sqrt{2\pi} \sigma} \exp \left(- \frac{(y^{(i)} - w^T x^{(i)})^2} {2 \sigma^2}\right) \qquad(ml.1.1.7)
$$
对\(L(x)\)取对数,可得:
$$ \max_{w} \; \mathcal{l}(w) = -m \cdot \log \sqrt{2\pi} \sigma - \frac{1}{2\sigma^2} \sum_{i=1}^{m} \left(y^{(i)} - w^T x^{(i)}\right)^2 \qquad(ml.1.1.8) $$
因为\(n,\sigma\)变量为常数,所以公式\((ml.1.1.8)\)等价于:
$$
\min_{w} \; \frac{1}{2} \sum_{i=1}^{m} \left(y^{(i)} - w^T x^{(i)}\right)^2 \qquad(ml.1.1.9)
$$
咱们能够发现,通过最大似然估计推导出来的待优化的目标函数\((ml.1.1.9)\)与平方损失函数\((ml.1.1.3)\)是等价的。所以,能够得出结论:
线性回归 偏差平方损失极小化与极大似然估计等价。其实在几率模型中,目标函数的原函数(或对偶函数)极小化(或极大化)与极大似然估计等价,这是一个带有广泛性的结论。
在本系列《第02章:深刻浅出ML之Entropy-Based家族》和李航老师的《统计学习方法》中,谈到最大熵模型时,都给出了对偶函数极大化与极大似然估计等价的结论。
为何是条件几率?
由于咱们但愿预测值与真实值更接近,这就意味着但愿求出来的参数\(w\),在给定输入\(x\)的状况下,获得的预测值等于真实值的可能性越大越好。而\(w, x\)均是前提条件,所以用条件几率\(p(y|x; w)\)表示。即\(p(y|x; w)\)越大,越能说明估计的越准确。(固然也不能一味地只优化该条件几率,还要考虑拟合过分以及模型的泛化能力问题,这部分在《第07章:深刻浅出ML之统计学习理论》中详细阐述。)
介绍逻辑斯蒂回归模型以前,首先看一个并不常见的几率分布——逻辑斯蒂分布。
逻辑斯蒂分布
设\(X\)是连续随机变量,若是随机变量\(X\)对应的几率密度函数\(f(x)\)和累积分布函数\(F(x)\)分别是:
$$
f(x) = \frac{e^{- \frac{x-\mu}{s}}} {s(1+e^{- \frac{x-\mu}{s}})^2} \qquad\quad(ml.1.1.10)
$$
$$
F(x) = P(X \leq x) = \int_{-\infty}^{x} f(x) dx = \frac {1} {1+e^{- \frac{x-\mu}{s}}} \qquad(ml.1.1.11)
$$
那么,\(X\)服从逻辑斯蒂分布。其中,\(\mu\)为位置参数,\(s>0\)为形状参数。
累积分布函数属于逻辑斯蒂函数,其图形是一条\(S\)型曲线(又称为Sigmoid曲线)。该曲线的特色是:以点\((\mu, \frac{1}{2})\)为中心对称,即知足:
$$
F(-x+\mu) - \frac{1}{2} = -F(x-\mu) + \frac{1}{2} \qquad(n.ml.1.1.4)
$$曲线在中心附近增加较快,在两端增加速度较慢。从密度函数和分布函数图形都能看出,形状参数\(s\)的值越小,曲线在中心附近增加的越快。
前面介绍的线性回归,其应用场景大可能是回归分析,通常不用在分类问题上。缘由能够归纳为如下两个:
而本节要介绍的逻辑斯蒂回归模型(Logistic Regression Model,简称LR模型)是一种可用来分类的模型。在这里,自变量\(X\)取值为连续值或离散值,因变量\(Y\)取值为1或0。
LR模型表达式
LR模型表达式为参数化的逻辑斯蒂(累积)分布函数(默认参数\(\mu=0,s=1\))即:
$$
h_w(x) = \frac{1}{1+e^{-w^T \cdot x}} \qquad(ml.1.1.12)
$$
\(h_w(x)\)做为事件结果\(y=1\)的几率取值。这里,\(x \in R^{n+1}, y \in \{1,0\}\),\(w \in R^{n+1}\)是权值向量。其中权值向量\(w\)中包含偏置项,即\(w=(w_0, w_1, \cdots, w_n)\), \(x=(1, x_1, \cdots, x_n)\)。
理解LR模型
对数概率
一个事件发生的概率(odds)是指该事件发生的几率与该事件不发生的几率的比值。若是事件发生的几率是\(p\),那么该事件的概率为\(\frac{p}{1-p}\),该事件的对数概率(log odds,用logit函数表示)是:
$$
logit(p) = \log \frac{p}{1-p} \qquad(ml.1.1.13)
$$
对LR而言,根据公式\((ml.1.1.12)\)和\((ml.1.1.13)\)可得:
$$
\log \frac{h_w(x)}{1-h_w(x)} = w^T x \qquad(ml.1.1.14)
$$
即在LR模型中,输出\(y=1\)的对数概率是输入实例\(x\)的线性函数。
函数映射
除了从对数概率的角度理解LR外,从函数映射也能够理解LR模型:
考虑对输入实例\(x\)进行分类的线性表达式\(w^Tx\),其值域为实数域(\(x \in R^{n+1}\),\(w \in R^{n+1}\))。经过LR模型表达式\((ml.1.1.13)\)能够将线性函数\(w^T x\)的结果映射到\((0,1)\)区间,取值表示为结果为1的几率(在二分类场景中)。
线性函数的值愈接近正无穷\(\infty\),几率值就越接近1;反之,其值越接近负无穷,几率值就越接近0。这样的模型就是LR模型。
逻辑斯蒂回归本质上仍是线性回归,只是特征到结果的映射过程当中加了一层函数映射(即sigmoid函数),即先把特征/变量线性求和,而后使用sigmoid函数将线性和约束至\((0,1)\)之间,结果值用于二分或回归预测。
LR模型——几率解释
LR模型多用于解决二分类问题,如广告是否被点击(是/否)、商品是否被购买(是/否)等互联网领域中常见的应用场景。
可是实际场景中,咱们又不把它处理成“绝对的”分类问题,而是用其预测值做为事件发生的几率。
这里从事件、变量以及结果的角度给予解释。
咱们所能拿到的训练数据统称为观测样本。问题:样本是如何生成的?
一个样本能够理解为发生的一次事件,样本生成的过程即事件发生的过程。对于0/1分类问题来说,产生的结果有两种可能,符合伯努利试验的几率假设。所以,咱们能够说样本的生成过程即为伯努利试验过程,产生的结果(0/1)服从伯努利分布。这里咱们假设结果为1的几率为\(h_{w}(x)\),结果为0的几率为\(1-h_{w}(x)\)。
那么,对于第\(i\)个样本,几率公式表示以下:
$$P(y^{(i)}=1|x^{(i)}; w) = h_{w}(x^{(i)}) \qquad (ml.1.1.15)$$
$$P(y^{(i)}=0|x^{(i)}; w) = 1 - h_{w}(x^{(i)}) \qquad (ml.1.1.16)$$
将公式\((ml.1.1.15)\)和\((ml.1.1.16)\)合并在一块儿,可得第\(i\)个样本正确预测的几率:
$$
P(y^{(i)}|x^{(i)}; w) = (h_{w}(x^{(i)}))^{y^{(i)}} \cdot (1 - h_{w}(x^{(i)}))^{1-y^{(i)}} \qquad (ml.1.1.17)
$$
上式是对一条样本进行建模的数据表达。对于多条样本,假设每条样本生成过程独立,在整个样本空间中(\(m\)个样本)的几率分布为:
$$P(Y|X; w) = \prod_{i=1}^{m} \left( (h_{w}(x^{(i)}))^{y^{(i)}} \cdot (1 - h_{w}(x^{(i)}))^{1-y^{(i)}} \right) \qquad(ml.1.1.18)$$
经过极大似然估计(Maximum Likelihood Evaluation,简称MLE)方法求几率参数。具体地,下面给出了经过随机梯度降低法(Stochastic Gradient Descent,简称SGD)求参数。
参数学习算法
公式\((ml.1.1.18)\)不只能够理解为在已观测的样本空间中的几率分布表达式。若是从统计学的角度能够理解为参数\(w\)似然性的函数表达式(即似然函数表达式)。参数在整个样本空间中的似然函数可表示为:
$$
\begin{align}
L(w) & = P(Y|X; w) \\\
& = \prod_{i=1}^{m} P(y^{(i)}|x^{(i)}; w) \\\
& = \prod_{i=1}^{m} \left( (h_{w}(x^{(i)}))^{y^{(i)}} \cdot (1 - h_{w}(x^{(i)}))^{1-y^{(i)}} \right)
\end{align} \quad\qquad (ml.1.1.19)
$$
为了方便参数求解,对公式\((ml.1.1.19)\)取对数,可得:
$$
\begin{align}
l(w) & = logL(w) \\\
& = \sum_{i=1}^{m} \left( y^{(i)} \cdot \log (h_{w}(x^{(i)})) + (1-y^{(i)}) \cdot \log(1- h_{w}(x^{(i)})) \right)
\end{align} \qquad (ml.1.1.20)
$$
最大化log似然函数,就是最小化交叉熵偏差(Cross Entropy Error)。
先不考虑累加和\(\sum_{i=1}^{m}\),针对每一个参数\(w_j\)求偏导:
$$
\begin{align}
\frac{\partial}{\partial w_j} l(w) & = \left( y \frac{1}{h_{w}(x)} - (1-y) \frac{1}{1-h_{w}(x)}\right) \frac{\partial}{\partial w_j} h_{w}(x) \\\
& = \left( \frac{y-h_{w}(x)}{h_{w}(x) \cdot (1 - h_{w}(x))}\right) \cdot h_{w}(x) (1 - h_{w}(x)) \cdot \frac{\partial}{\partial w_j} w^T x \\\
& = \left( y-h_{w}(x) \right) \cdot \frac{\partial}{\partial w_j} w^T x \\\
& = \left( y-h_{w}(x) \right) \cdot x_{j}
\end{align} \qquad (ml.1.1.21)
$$
最后,经过扫描样本,迭代下述公式可求得参数:
$$
w_{j+1} = w_j + \alpha \cdot (y^{(i)} - h_{w}(x^{(i)})) \cdot x_{j}^{(i)} \qquad (ml.1.1.22)
$$
公式\((ml.1.1.22)\)中的\(\alpha\)表示学习率(learning rete,又称学习步长)。
除此以外,还有Batch GD,共轭梯度,拟牛顿法(LBFGS),ADMM分布学习算法等均可用于求解参数,这些将在《最优化算法》系列中的对应章节中详细介绍。
基于梯度法求目标函数极值,另外一种推导方式:
$$
\begin{align}
l(w) & = \log L(w) \\\
& = \sum_{i=1}^{m} \left( y^{(i)} \cdot \log (h_{w}(x^{(i)})) + (1-y^{(i)}) \cdot \log(1- h_{w}(x^{(i)})) \right) \\\
& = \sum_{i=1}^{m} \left( y^{(i)} \cdot \underline { \log {\frac {h_w(x^{(i)})}{ 1-h_w(x^{(i)})}} } + \log (1-h_w(x^{(i)}))\right) \\\
& = \sum_{i=1}^{m} \left(y^{(i)} \cdot w^T x^{(i)} - \log (1 + \exp(w^Tx^{(i)})) \right)
\end{align} \qquad(n.ml.1.1.5)
$$一样的,对每一个参数求偏导,推导结果为:
$$
\frac{\partial}{\partial w_j} l(w) = y^{(i)} x_j^{(i)} - \frac {\exp({w^Tx^{(i)}})} {1+\exp({w^Tx^{(i)}})} x_j^{(i)} = \left( y^{(i)} - h_{w}(x^{(i)}) \right) \cdot x_{j}^{(i)} \qquad(n.ml.1.1.6)
$$
进行模型参数估计以后,假设参数\(w\)的极大似然估计值是\(w^{*}\),那么咱们学到的逻辑斯谛回归模型为:
$$
P(Y=1 | x) = \frac{exp(w^{*} \cdot x)}{1+exp(w^{*} \cdot x)}
$$$$
P(Y=0 | x) = \frac{1}{1+exp(w^{*} \cdot x)}
$$上述的推导模型是二项分类模型,用于二类分类,能够将其推广为多项逻辑斯蒂回归模型(multi-nominal logistic regression model),用于多分类,假设离散随机变量\(Y\)的取值集合是\({1,2, \cdots ,K}\),那么多项逻辑斯谛回归模型是
$$
P(Y=k | x) = \frac{exp(w_{k}^{*} \cdot x)}{1+\sum_{k=1}^{K}exp(w_k^{*} \cdot x)}
$$$$
P(Y=K | x) = \frac{1}{1+\sum_{k=1}^{K}exp(w_k^{*} \cdot x)}
$$
Sigmoid函数性质:
①. \(h_w(-x) = 1 - h_w(x)\)
②. \(h_w^{\prime}(x) = (1-h_w(x)) \cdot h_w(x)\)推导:
\(
\begin{align}
h^{\prime}(x) & = (\frac {1}{1+e^{-x}})^{\prime} = - \frac {1}{(1+e^{-x})^2} \cdot (e^{-x})^{\prime} \\\
& = \frac {e^{-x}} {(1+e^{-x})^2} = \frac {e^{-x}} {1+e^{-x}} \cdot \frac{1} {1+e^{-x}} \\\
& = (1-h(x)) \cdot h(x)
\end{align}
\)
重要考察点
注:这部分公式推导是LR模型的核心部分,在机器学习相关面试中,LR模型公式推导是多是考察频次最高的一个点。打算寻求数据挖掘、机器学习等职位的朋友,建议能作到公式的熟练推导。
交叉熵偏差
其实从公式\((ml.1.1.20)\)中不难看出,LR模型的对数似然函数对应的就是交叉熵的表达式。在给定样本空间下,对于条件几率\(P(y|x)=h_w(yx)\)来讲,其似然函数表达式为:
$$
\max_{h} likelihood(h) \propto \prod_{i=1}^{m} h_w(y^{(i)} x^{(i)}) \qquad (ml.1.1.23)
$$
上式表示函数\(h\)的可能性,即\(likelihood(h)\)。该式越大,说明\(h\)越逼近真实目标函数\(f\)。将其转化为求极小值问题(添加负号),并写成\(\log\)形式为:
$$
\begin{align}
& \min_w \quad \frac{1}{m} \sum_{i=1}^{m} - \log (h_w(y^{(i)} x^{(i)})) \qquad\qquad(1) \\\
\Longrightarrow \; & \min_w \quad \frac{1}{m} \sum_{i=1}^{m} \underline{ \log (1+\exp(-y^{(i)} w^T x^{(i)})) } \quad\;\,(2)\\\
\Longrightarrow \; & \min_w \quad \underbrace { \frac{1}{m} \sum_{i=1}^{m} \underline{err(w,y^{(i)},x^{(i)})} }_{E_{in}(w)} \qquad\qquad\quad\, (3) \\\
\end{align} \qquad (ml.1.1.24)
$$
公式\((1)\)添加了\(\frac{1}{m}\)是为了写成Loss Function的长相(对于给定数据来讲,其做为一个常数,对求解无妨);公式\((3)\)表达式又称为交叉熵损失(Cross-Entropy Error)。
值得说明的是:不止LR模型的损失函数是交叉熵损失,几乎全部的条件几率模型对应的Loss Function都是交叉熵损失。
LR模型是广义线性模型的特例
当目标值分布服从伯努利分布时
LR模型是最大熵模型的特例
最大熵模型是基于最大熵原理(见《第2章:深刻浅出ML之Entropy Methods家族》),优化条件几率\(p(y|x)\)熵,并经过对偶函数极大化或极大似然估计获得的几率模型。当\(y\)知足二项分布时,获得的几率模型即为\(P(y=1|x)\).
LR模型知足指数族分布
LR模型与指数族分布也存在密切的关系
指数族分布的归一化形式(Canonical Form):
$$
p(y|\eta) = h(y) \cdot g(\eta) \cdot \exp \{ \eta^T \mu(y) \} \qquad(n.ml.1.1.7)
$$前面说道,LR模型对应的结果只有两种可能,屡次独立同分布实验服从二项分布。LR模型是指数族分布中\(y\)服从二项分布的特例。
本节主要是想聊聊LR模型在工业界中的应用。绝不扩张地说,LR模型是工业界应用最多的模型之一,无论是在各类预估问题场景(如推荐、广告系统中的点击率预估,转化率预估等),亦或是分类场景(如用户画像中的标签预测,判断内容是否具备商业价值,判断点击做弊等等),咱们发现都会出现LR的身影。
总结发现,LR模型自身的特色具有了应用普遍性。总结以下:
但在工业界中典型的大规模学习任务-如广告的CTR预估问题。除了预估模型自身外,还要考虑模型可否解决学习任务、业务场景中出现的问题。好比:
从模型的角度,过拟合和稀疏性问题能够在优化求解中的LR损失函数基础上加上正则项来解决:
loss function + \(\underline{ \lambda |w|_{2}^{2}}\):解决过拟合
loss function + \(\underline{ \lambda |w|_{1}}\):解决稀疏性,好比Google13年出的预估方法-FTRL模型,虽然是在线学算法,但主要是为了解决预估时的稀疏性问题。
超大规模稀疏LR模型学习问题,LR模型自身是作不到的。这个时候须要咱们为它选择一个学习算法和分布式系统。在分布式环境下,约束优化求解理想方案之一-ADMM算法(交叉方向乘子法),可用于求解形式为"loss function + 正则项"
目标函数极值问题。
关于ADMM,这里给出简单的归纳:
注:LR模型用于解决大规模预估问题仍是有不少挑战的。好比上面提到的几个问题,固然都不是预估模型的问题,而是一个大规模机器学习任务所面临的问题:
- 特征离散化表示后(尤为是ID类特征),特征会很是稀疏,学习时须要考虑稀疏性问题;
- 训练数据集相比样本的高维度特征向量表示来讲,显得“捉襟见肘”时,学习时要考虑过拟合问题;
- 如何在更多的训练数据集和更高的数据特征维度上,借助
分布式框架+优化求解算法框架
解决超大规模离散LR模型学习问题?上面列出了3个比较重要的问题。2016年Q2时,我会结合以前的研究、学习和工做经验,整理出一个《广告点击率预估》这样一个专题,重点讨论里面的核心问题、解决方案以及相关工具。
广义线性回归
其实,回归家族的模型能够统称为广义上的线性回归。若是把\(w\)看做是参数,而\(x_i, x_i x_j, x^2_i\)等看做参数的常量(他们可直接从线性观测数据中计算获得),如此上面介绍的回归模型均可以看做是参数\(w\)的线性函数。
线性回归与线性关系
线性回归当然能够表达线性关系,可是也能够表达非线性关系。如<广义线性回归>中解释的那样,若是先把每一个特征变量映射到一个函数(如\(x_i \rightarrow x^2_i\)),而后再进行线性计算。如此,线性回归能够表达特征与结果之间的非线性关系。
广义线性回归既能够表达线性关系,也能够表达非线性关系。
下一步将完善一下模型,并附上相关的指标结果。