本系列文章为 《Deep Learning》 读书笔记,能够参看原书一块儿阅读,效果更佳。算法
机器学习算法须要大量的数字计算,而且这些计算包含有一些迭代拟合的过程,在这个计算过程当中,因为计算机的局限,没法彻底精确的表示,所以老是存在偏差的,小的偏差通过迭代次数的增多,或者多个偏差的叠加,甚至会使得算法不可用,系统失效。数组
解决办法:softmax 函数,也称 归一化指数函数,是逻辑函数的一种推广,将任意实数的 K 维向量映射到另一个 K 维空间内,使得每个元素都在 (0, 1) 之间。这里的 归一化 与以前在房价预测中提到的 标准化 不是一个概念(标准化对数据进行某种非线性变换,使其服从某一种分布,归一化对数值的范围进行缩放,不改变数据分布的一种线性变换)。机器学习
$$ softmax(x)_i=\frac{e^{x_i}}{\sum_{j=1}^ne^{x_j}} $$函数
这个词我以为翻译不许确,可是你们都喜欢这么叫暂且先这么叫吧。通常来讲这个概念针对的是方程组或矩阵,微小的扰动让方程组的解发生巨大的变化,这样的方程组称为病态方程组,他们的系数组成的矩阵叫病态矩阵。学习
与之相关的还有一个概念叫 条件数:函数相对于输入的微小变化而变化的程度,能够理解为一种敏感度。计算方法是求矩阵极大和极小特征值之比。测试
$$ \max_{i,j}=|\frac{\lambda_i}{\lambda_j}| $$优化
这个概念要分几步去理解。对于深度学习算法,每每会定义出不少函数,针对具体的问题,咱们每每须要让某些函数的函数值尽量的小或大,求最大值极值,咱们每每求导(针对多个变量,这里的求导包括求偏导和方向导数),也会求梯度。梯度降低 指的是往梯度方向相反方向移动一个小距离来减少函数值的方法。这里还有极小值、极大值、驻点、最大值、最小值等概念,再也不赘述。翻译
在向量分析中,雅可比矩阵是一阶偏导数以必定方式排列成的矩阵,它的重要性是体现了一个可微分方程与给出点的最优线性逼近。get
$$ J_{i,j}=\frac{\partial}{\partial x_j}f(x)_i $$深度学习
函数有多维输入时,二维导数有不少,将其合为一个矩阵,就是海森矩阵,等价于梯度的雅可比矩阵。
$$ H(f)(x)_{i,j}=\frac{\partial^2}{\partial x_i\partial x_j}f(x)=H(f)(x)_{j,i} $$
一个点在每一个方向上的二阶导数是不一样的,海森的条件数衡量这些二阶导数的变化范围,当海森的条件数变得不好时,梯度降低法也会表现得不好,在 牛顿法 中,咱们用海森矩阵指导搜索,来解决上面这个问题。
这一部分的内容涉及东西比较多,书中的内容还包括一些推导和解释,看上文看的不是很清楚的请阅读原书,那就不是个人笔力所能讲清楚的了。
到此本书中关于应用数学相关的内容就结束了,想要放弃了吗?