机器学习/深度学习最基础的数学知识

<a name="4d08a644"></a>html

线性代数

<a name="e2d6d0e3"></a>机器学习

基本概念

标量、向量、矩阵、矩阵运算、范数、特征向量、特征值。函数

标量就是一个实数,好比 1,2,3,2.5 都是一个标量,咱们通常用小写的  来表示。<br />向量就是一组标量的集合,以下:<br />学习

向量拥有n个元素,表明的是其第i个元素,用有n个元素的向量咱们记做:<br /> 或者 spa

矩阵就是一组相同长度的向量集合,一个m*n的矩阵是拥有m行n列的元素,以下:<br />.net

其中表明矩阵的第i行第j列的元素,一个的矩阵,咱们也记做:3d

这么看向量其实也是一种特殊的矩阵。code

<a name="54d8e0ef"></a>htm

基本运算

<a name="593da9c7"></a>blog

向量点积

<a name="fa680553"></a>

矩阵转置

定义矩阵以下:<br />

其转置以下:<br />

即将的矩阵大小变成了大小的矩阵了<br /><br /> <a name="a04b1331"></a>

矩阵加减法

矩阵加减法要求矩阵形状相同的矩阵才可以进行加减法。<br />定义两个矩阵以下:<br />

那么矩阵加法效果以下:<br />

即将每一个矩阵内的元素加起来便可。减法和按元素乘法同理,即每一个元素按位置相减和相乘。

这里要强调一下矩阵按元素乘法跟普通的乘法定义略有不一样,按元素乘法记做:<br />

下面一节要介绍的矩阵乘法直接就记做:<br />

<a name="12127f40"></a>

矩阵乘法

矩阵乘法要求第一个矩阵的列跟第二个矩阵的宽是同样的。<br />假设两个矩阵:<br />

其中 , <br /><br />变成了一个 m*k 的矩阵,该矩阵的第 i 行,第 j 列的元素内容为A的第i行的向量和B的第j列的向量的点积,以下:<br />

<a name="987c41bd"></a>

范数

向量和矩阵都会有范数,范数会有级别,一个向量的p级别范数为:<br /><br />通常比较经常使用的范数是L1范数和L2范数,其中

L1范数就是向量各元素的绝对值之和:<br /><br />L2范数是将求个元素的平方和再开根,以下:<br />

咱们一般用来代替,也就是说L2范数是最常使用的范数。<br /><br /><br />矩阵也会有范数,定义跟向量是相似的,以L2范数定义为例子:<br /><br />即将矩阵中全部元素求平方和再开根。

<a name="598a513e"></a>

特征值和特征向量

特征值和特征向量只针对矩阵行和列都相同的矩阵才有意义,假设有一个n*n的矩阵A,若是存在一个标量和n维向量 v ,使得以下的等式成立:<br /><br />那么我就称这个就是矩阵A的特征值,这个 v 就是矩阵A的特征向量。

<a name="8b2d89e1"></a>

微积分

<a name="a1a27d15"></a>

导数

导数的定义是针对函数的,假设有一个函数

对一个函数求导的数学记号记做以下:<br />

函数求导以后又是另一个函数,常见的导数函数以下:<br />

<a name="1a779156"></a>

导数运算

假如咱们如今有两个函数,咱们针对两个函数经过加减乘除组合而成的新的函数来求导,求导公式以下:

经过如上的基本运算符,咱们就能够对相对比较复杂的函数来进行求导了,好比以下函数:<br /><br />该函数的导数就是:<br />

嵌套函数求导运算:<br /><br />或者换一个更清晰一点的表述方式,假设有两个函数,那么<br />

用一个实际的例子来阐述如上的嵌套函数求导,好比:<br />

如上例子用了两种方式来计算,最终获得的结果都同样的。

<a name="4b9c89c6"></a>

泰勒展开

泰勒展开是将一个函数展开为用其n阶导数的函数公式求和的一个展开式,具体公式以下:

其中a能够是任意实数。

<a name="f21f98a7"></a>

偏导数

偏导数是指当一个函数拥有多个自变量,针对其中某一个自变量求导的函数就叫偏导数。

求导的过程也很简单,就是将其余自变量都当成常数,只针对这一个变量进行求导就好,例子以下:

<a name="214942d8"></a>

梯度

梯度是一个函数的全部自变量的偏导数的向量集合。假设一个函数为:

那么该函数的梯度以下:

梯度的计算在机器学习的求解过程当中很是重要,目前机器学习绝大部分求解过程都是将全部参数的损失函数沿着梯度逐步降低到一个近似的最优解。

梯度有以下的一些计算规则,假设是一个自变量的向量集合,是一个矩阵,那么以下一些特殊函数的梯度计算公式以下:<br />

相似的,假设是一个矩阵,那么该矩阵的梯度计算有以下公式:<br /> <a name="d41d8cd9"></a>

<a name="b3c6f67a"></a>

海森矩阵

海森矩阵是一个函数的二阶偏导数集合的矩阵,首先,假设一个函数定义以下:<br />

那么该函数的海森矩阵定义以下:<br />

该矩阵是一个 n*n 的正方形矩阵。 <a name="e491d911"></a>

几率

<a name="1393becd"></a>

条件几率

假设 A 和 B 是两个几率事件, P(A) 和 P(B) 分别表示两件事件发生的几率, P(A,B) 表明A和B同时发生的几率, P(A|B) 表明给定 B 成立的状况下,发生事件 A 的几率,那么条件几率有以下的公式:

从这个公式能够推导出来:

A 和 B 是两个独立事件的时候,意味着:<br />

<a name="eeb0d28b"></a>

指望

假设有一组离散的事件 ,其中每一个事件对应发生的几率为,那么该组离散事件的指望为:<br /><br /><br /> <a name="28968f37"></a>

均匀分布

若是咱们说一个随机变量 x 在区间 [a, b] 上服从均匀分布的话,也就是说 x 取出 [a,b] 任意一个数的几率是相等的。

原文出处:https://www.cnblogs.com/xuanku/p/math.html

相关文章
相关标签/搜索