说明:Matrix Methods in Data Mining and Pattern Recognition 读书笔记算法
很是 nice 矩阵在线计算器,网址:http://www.bluebit.gr/matrix-calculator/.编程
假设如今要解一个线性系统:机器学习
Ax = b,函数
其中 A 是 n×n 非奇异方阵,对于任意的向量 b 来讲,都存在一个惟一的解。工具
回顾咱们手工求解这个线性方程组的作法,首先将矩阵 A 行之间进行加减,将 A 矩阵转化为一个上三角矩阵,而后从下往上将未知数一个一个求解出来, 这就是高斯消元法。学习
实际上,矩阵等价于左乘一个单位矩阵,行变换操做能够直接体如今左乘的单位矩阵上。好比要将矩阵 A 第二行减去第一行,等价于将左乘的单位矩阵的第二行减去第 一行,固然矩阵 A 最终转化为上三角矩阵 U 比这个复杂的多,咱们将左乘的单位矩阵最终等价变换后获得的矩阵命名为 M ,显然, M 是一个下三角矩阵。测试
MA = U.spa
A = LU. 其中 M, L 互为逆矩阵3d
图片表示以下:blog
因为要确保 A 转化后的第一行的第一项不为 0, 第二行的第二项不为 0, 第三行…… 所以, A 前面应该再加上一个行与行之间进行交换的矩阵 P。所以,LU 分解的公式又能够写成:
PA = LU
P 是 permutation matrix, L 是 lower triangular matrix, U 是 upper triangular matrix. 有些书将置换矩阵 P 放置在等号右边。好比这个矩阵在线计算器默认的就是将 P 放置在矩阵 L 的前面。不妨利用这个工具测试一下 LU 分解的正确性。
若是 A 是对称正定矩阵,L 和 U 正好是互为转置,差异在于对应的行存在倍数关系,这种那个倍数关系能够用对角线矩阵来实现,因此, LU 分解就能够写成:
将对角线矩阵均摊到两边,公式能够转化为:
其中,矩阵 U 是上三角矩阵,这个就是 Cholesky decomposition,这个分解方法有点像求实数的平方根。同时,该分解方法的计算量只有 LU 分解的一半。
条件数是线性方程组Ax=b的解对b中的偏差或不肯定度的敏感性的度量。数学定义为矩阵A的条件数等于A的范数与A的逆的范数的乘积,即cond(A)=‖A‖·‖A-1‖,对应矩阵的3种范数,相应地能够定义3种条件数。
matlab 里面运算函数:cond(A,2)或cond(A):2范数
一个极端的例子,当A奇异时,条件数为无穷,这时即便不改变b,x也能够改变。奇异的本质缘由在于矩阵有0特征值,x在对应特征向量的方向上运动不改变Ax的值。若是一个特征值比其它特征值在数量级上小不少,x在对应特征向量方向上很大的移动才能产生b微小的变化,这就解释了为何这个矩阵为何会有大的条件数,事实上,正规阵在二范数下的条件数就能够表示成 abs(最大特征值/最小特征值)。——摘自百度百科
在计算机编程环境中,数据都是有浮点类型表示,精度有限,存在干扰,所以在解线性方程的时候都会存在偏差。
在机器学习里面,使用线性分类器或者线性回归方法时常常会遇到最小二乘的问题(分类也能够看作一种特殊的回归,目标值是 1 和 -1 或者 0 和 1)。现有下面这个问题,左边是样本点的两个属性,右边是回归值,如何肯定 e 和 k?
这个线性系统能够表示为:
Ax = b
其中,A 的行数大于列数,这种状况又叫作 overdetermined。假设 A 矩阵是 3×2 的矩阵,令 A = (a1, a2), Ax 表示这两个基向量的线性组合(span),在几何上是三维空间里的一个平面。而 b 向量则是三维空间里面的一个点,这个点若是不在 span{a1, a2} 上,则该方程不存在正确的解。如今咱们的任务是令残差向量 r = b - Ax 最小:
LMS 算法中利用梯度降低法能够达到目标函数的最优值,可是这个目标函数的真正意义是什么?
几何上的直观感觉就是,若是残差向量正好垂直于 a1, a2 组成的平面,此时达到最优:
残差向量 r = b - Ax 与 a1, a2 组成的平面垂直,则与向量 a1, a2 也是相互垂直的:
展开写成以下公式:
若是 A 矩阵的列向量是线性无关的,那么上式有惟一的解:
用这个方法解决 least squares problems 存在两个缺陷: