在深度学习中,你们确定都知道这几个词:标量(Scalar),向量(Vector),矩阵(Matrix),张量(Tensor)。可是要是让咱们具体说下他们,可能一会儿找不出头绪。下面介绍一下他们之间的关系:html
标量(scalar)数组
一个标量表示一个单独的数,它不一样于线性代数中研究的其余大部分对象(一般是多个数的数组)。咱们用斜体表示标量。标量一般被赋予小写的变量名称。如:aapp
向量(vector)ide
一个向量表示一组有序排列的数。经过次序中的索引,咱们能够肯定每一个单独的数。一般咱们赋予向量粗体的小写变量名称。当咱们须要明确表示向量中的元素时,咱们会将元素排列成一个方括号包围的纵柱:如 a.函数
矩阵(matrix)学习
矩阵是一个二维数组,其中每个元素由两个索引所肯定。一个有m行,n列,每一个元素都属于 RR 的矩阵记做 A∈Rm×n. 一般使用大写变量名称,如A
字体
张量(tensor)atom
超过两维的数组叫作张量。spa
在某些状况下,咱们会讨论坐标超过两维的数组,通常的,一个数组中的元素分布在若干维坐标的规则网格中,咱们称之为张量。咱们使用字体 A 来表示张量“A”。张量A中坐标为(i,j,k) 的元素记做 Ai,j,k .scala
四者之间关系
标量是0阶张量,向量是一阶张量。
举例:
标量就是知道棍子的长度,可是你不会知道棍子指向哪儿。
向量就是不但知道棍子的长度,还知道棍子指向前面仍是后面。
张量就是不但知道棍子的长度,也知道棍子指向前面仍是后面,还能知道这棍子又向上/下和左/右偏转了多少。
向量和矩阵的范数概括
向量的范数(norm)
向量的1范数:
向量的2范数:
向量的负无穷范数:
向量的正无穷范数:
向量的p范数:
矩阵的范数
当向量取不一样范数时, 相应获得了不一样的矩阵范数。
矩阵的1范数(列范数):
矩阵的每一列上的元素绝对值先求和,再从中取个最大的,(列和最大);
矩阵的2范数:
矩阵的无穷范数(行范数):
矩阵的每一行上的元素绝对值先求和,再从中取个最大的,(行和最大).
上述矩阵A的行范数先获得[6;16] ,再取最大的最终结果就是:16。
矩阵的核范数:
矩阵的奇异值(将矩阵svd分解)之和,这个范数能够用来低秩表示(由于最小化核范数,至关于最小化矩阵的秩——低秩)
矩阵的L0范数:
矩阵的非0元素的个数,一般用它来表示稀疏,L0范数越小0元素越多,也就越稀疏.
上述矩阵A 最终结果就是:6
矩阵的L1范数:
矩阵中的每一个元素绝对值之和,它是L0范数的最优凸近似,所以它也能够表示稀疏.
上述矩阵AAA最终结果就是:22。
矩阵的F范数:
矩阵的各个元素平方之和再开平方根,它一般也叫作矩阵的L2范数,它的有点在它是一个凸函数,能够求导求解,易于计算.
上述矩阵A最终结果就是:10.0995。
矩阵的 p范数:
其余线性代数的标量学习
行列式:(数学上定义为一个函数)
![]()
注意:
向量能够看做只有一列的矩阵, 对应地,向量的转置结果能够看做只有一行的矩阵。
标量的转置等于自身。
矩阵能够进行加法、乘法计算。
两个矩阵的标准乘积不是两个矩阵中对应元素的乘积。
向量的点积(dot Product):(能够理解成矩阵乘积Matrix Product)
注意:
向量点积结果必然是一个实数,即一个一行一列的矩阵。
矩阵乘法分配律
矩阵乘积结合律
注意:矩阵乘积并不知足交换律,然而,两个向量的点积知足交换律
矩阵乘积的转置有着简单的形式
单位矩阵(identity matrix)
单位矩阵全部沿对角线的元素都是1, 而其它位置的全部元素都是0。
任意向量和单位矩阵相乘,都不会改变。
逆矩阵
endl;