全书总评
- 书本印刷质量:4 星。印刷清楚,排版合适,错误不多。
- 著做编写质量:4 星。自学机器学习的必备。
- 优势
- 全书一直围绕着统计学习中的有监督学习描述,内容不深,基本算法都有所介绍;
- 内容的组织是从抽象到具体的思惟模式,比国外的教材易于理解;
- 是自学统计学习和机器学习的推荐用书。
- 缺点
- 基础部分讲解缺乏理论,学完后没法理解,不利用学以至用。例如:感知器的损失函数,应该是统计学习的核心思想,那么损失函数在整个算法中的位置,以及如何选择损失函数都须要说明清楚,才可以指导后面各类其余机器学习方法的理解。
- 使用的方法没有导入的缘由和出处,学习过程当中会产生比较大的跳跃感,延续性不足。例如:随机梯度降低法,只是说明用于神经网络的优化须要用随机梯度降低,而实际上随机梯度降低是为了知足在线学习的须要,若是是批量学习能够直接使用梯度学习算法实现。
- 总结:瑕不掩瑜,建议结合 “西瓜书” [周志华,2018] 一块儿看。
- 笔记目的:记录重点,方便回忆。
C01. 统计学习方法概论
- 这一章都是概念和结论,若是读者可以透过概念就明白里面实际操做的内容,那就能够快速浏览此书,不然准备纸和笔认真精读方能收获。
- 后面的各章内容相对独立,读者既能够连续学习,也能够仅选择本身感兴趣的内容。
统计学习
统计学习导言
- 统计学习 (statistical learning): 计算机基于数据构建几率统计模型,并运用模型对数据进行预测与分析的一门学科。
- 所以统计学习也称为统计机器学习 (statistical machine learning).
- 统计学习的主要特色
- 理论基础
- 数学基础:微积分、线性代数、几率论、统计学、计算理论、最优化理论
- 其余基础:信息论、计算机科学及应用相关的科学等多个领域的交叉学科
- 在发展中造成本身独立的理论体系与方法论。
- 应用基础:计算机及网络;
- 研究对象:数据,是数据驱动的学科;
- 研究目的:对数据进行分类和预测;
- 研究手段:经过统计学习方法构建模型,并应用模型进行分类和预测;
统计学习的对象
- 统计学习的对象是数据 (data)
- 从数据出发,提取数据的 “特征” ,抽象出数据的 “模型” ,发现数据中的 “知识” ,又回到对数据的 “分类” 与 “预测” 中。
- 数据的基本假设:同类数据具备必定的统计规律性,因此能够用几率统计方法加以处理。
- 数据分类有 “连续型” 和 “离散型” 两种,本书主要关注的是 “离散型” 数据。
统计学习的目的
- 模型:学习什么样的模型
- 策略:如何学习模型 → 使模型可以对数据进行准确地分类和预测
- 算法:如何提升模型的学习效率
统计学习的方法
- 统计学习的方法分类
- 有监督学习 (supervised learning) (全书重点)
- 从给定的、有限的、用于学习的训练数据 (training data) 集合出发;
- 假设要学习的模型属于某个函数的集合,称为假设空间 (hypothesis space);
- 基于某个评价标准 (evaluation criterion), 从假设空间中选取一个最优的模型
- 使模型在给定的评价准则下,对已知训练数据及未知测试数据 (test data) 都有最优的预测;
- 最优模型的选取都由算法实现。
- 无监督学习 (unsupervised learning):
- 半监督学习 (semi-supervised learning):
- 强化学习 (reinforcement learning):
- 统计学习方法的三个要素
- 模型 (model): 模型的假设空间;
- 策略 (strategy): 模型选择的准则;
- 算法 (algorithm): 模型学习的算法。
- 实现统计学习方法的步骤
- 获得一个有限的、用于训练的数据集合;
- 模型的集合:肯定包含全部可能的模型的假设空间;
- 学习的策略:肯定模型选择的准则;
- 学习的算法:肯定求解最优模型的算法;
- 经过学习的方式选择出最优模型;
- 利用学习的最优模型对新数据进行分类或预测。
- 统计学习中的有监督学习根据 “解决的问题” 主要包括
- 分类问题:判别模型,处理离散数据
- 预测问题:回归模型,处理连续数据
- 标注问题:既是分类问题的推广,又是预测问题的简化。
统计学习的研究
- 统计学习方法 (statistical learning method): 开发新的学习方法;
- 统计学习理论 (statistical learning theory): 探求统计学习方法的有效性与效率,以及统计学习的基本理论问题;
- 统计学习应用 (application of statistical learning): 将统计学习方法应用到实际问题中去,解决实际问题。
统计学习的重要性
- 是处理海量数据的有效方法;
- 是计算机智能化的有效手段;
- 是计算机科学发展的重要组成。
监督学习
- 监督学习的任务:是学习一个模型,使模型可以对任意给定的输入,及其相应的输出作出一个好的预测
基本概念
- 输入空间:输入数据全部可能取值的集合;集合中元素的个数能够有限,也能够是整个空间;
- 输出空间:输出数据全部可能取值的集合;集合中元素的个数能够有限,也能够是整个空间;
- 假设空间:由输入空间到输出空间的映射的集合,便可供选择的模型构成的空间;
- 特征空间:全部特征向量存在的空间。
- 每一个具体的输入是一个实例 (instance), 一般由特征向量 (feature vector) 表示。
- 统计学习中的有监督学习根据 “输入变量” 和 “输出变量” 的不一样主要包括
- 分类问题:输出变量为有限个离散变量的预测问题;
- 回归问题:输入变量与输出变量均为连续变量;
- 标注问题:输入变量与输出变量均为变量序列的预测问题;
- 联合几率分布:输入变量与输出变量遵循联合分布;
问题的形式化描述
- 在学习过程当中,学习系统(也就是学习算法)试图经过给定的训练数据集合中的样本带来的信息来学习获得模型。
统计学习三个要素
模型
- 主要问题:学习什么样的模型?
- 模型的假设空间:包含全部可能的条件几率分布或决策函数,即由一个参数向量决定的函数族,也称为参数空间 (parameter space)。
- 模型分类
- 非几率模型:由决策函数表示的模型;
- 几率模型:由条件几率表示的模型;
策略
- 主要问题:按照什么样的准则,学习获得最优的模型,或者从假设空间中选择最优的模型。
- 基本概念
- 损失函数 (loss function) 或代价函数 (cost function): 度量模型一次预测的好坏;
- 风险函数 (risk function) 或指望损失 (expected loss): 度量平均意义下模型预测的好坏。
- 经验风险 (empirical risk) 或经验损失 (empirical loss): 表示模型与训练数据的破例程度,即模型训练样本集的平均损失,当样本容量趋于无穷时,经验风险逼近指望风险;
- 结构风险 (structural risk): 表示模型先验知识,例如:模型复杂度的正则化项 (regularizer) 或惩罚项 (penalty term)。
- 经常使用的损失函数
- 0-1 损失函数
- 平方损失函数
- 绝对值损失函数
- 对数损失函数或对数似然损失函数
- 学习目标
- 理想状态:就是选择指望风险或指望损失最小的模型,但愿能够提供无限的数据训练;
- 现实状态:就是选择经验风险或经验损失最小的模型,由于只能提供有限的数据训练;
- 经验风险矫正:当样本容量太小时,容易出现 “过拟合” 问题,因此须要对经验风险进行矫正,经验风险最小化 + 结构风险最小化
- 经验风险最小化 (empirical risk minimization, ERM): 极大似然估计
- 结构风险最小化 (structural risk minimization, SRM): 最大后验估计
算法
- 统计学习是基于训练数据集,根据学习策略,从假设空间中选择最优模型,最后须要考虑用什么样的计算方法求解最优模型。
- 算法 即计算方法。统计学习的算法就转化为求解最优化问题的算法。
- 有显式的解析解的最优化问题;
- 无显式的解析解的最优化问题,须要用数值计算的方法求解。
- 如何保证找到全局最优解;
- 如何保证求解的过程高效。
模型的评估与选择
- 1.4~1.7, 与模型选择有关的问题。
- 1.8~1.10, 与模型应用有关的问题。
模型评估
- 学习方法评估的标准
- 基于损失函数的模型的训练偏差 (training error): 用来评估一个学习问题是否容易学习
- 基于损失函数的模型的测试偏差 (test error): 用来评估一个模型是否具有更有效的预测
- 泛化能力 (generalization ability): 学习方法对未知数据的预测能力
模型选择
- 过拟合 (over-fitting): 学习时选择的模型所包含的参数过多,以致于模型对已知数据预测较好,未知数据预测较差的问题
- 模型选择的经常使用方法
正则化与交叉验证
正则化
- 正则化 (regularization): 结构风险最小化策略的实现,是在经验风险上加一个正则化项或惩罚项。
- 正则化项通常是模型复杂度的单调递增函数。
- 复杂度定义能够参考 Kolmogorov 复杂性理论 (complexity theory) [Haykin, 2011] P48
- Occam 剃刀原理:应用于模型选择时符合正则化的想法,即全部可以解释数据的模型中,复杂度越小越好。
- Bayes 估计:正则化项对应于模型的先验几率。数据较少时先验几率就能够抑制数据中噪声的干扰,防止出现过拟合问题。数据不少时,先验几率就让位于数据对模型的解释。
- 正则化是优化学习算法,调整目标函数,增长先验知识的重要手段,是机器学习的核心之一。
- 简单了解:[周志华,2018] P133
- 深刻理解:[Haykin, 2011] C07
交叉验证
- 交叉验证 (cross validation)
- 在数据充足时,随机地将数据切分红三个部分:训练集、验证集和测试集。
- 训练集 (training set): 用来训练模型;
- 验证集 (validation set): 用来选择模型;
- 测试集 (test set): 用来评估模型。
- 交叉验证的经常使用方法
- 简单交叉验证:随机地将数据分红两个部分,70% 的数据为训练集,30% 的数据为测试集,选择测试偏差最小的模型;
- S 折交叉验证
- 随机地将数据分红 S 个互不相交的大小相同的部分
- 而后利用 S-1 个部分的数据训练,1 个子集测试模型,
- 再将这一个过程对全部可能的选择重复进行,
- 最后选择 S 次评测中平均测试偏差最小的模型。
- 留一交叉验证:当 S=N 时采用的 S 折交叉验证,适用于数据极度缺少的状况下。(N 为给定数据集的容量)
泛化能力
泛化偏差
- 泛化能力 (generalization ability): 是指学习方法学习到的模型对未知数据的预测能力
- 泛化偏差 (generalization error): 是指学到的模型对未知数据预测产生的偏差,反映了学习方法的泛化能力。
泛化偏差的上界
- 泛化偏差的上界 (generalization error bound): 泛化偏差的几率上界,经过比较两种学习方法的泛化偏差几率上界来肯定优劣
- 泛化偏差上界的性质
- 是样本容量的函数,当样本容量增长时,泛化上界趋向于 0;
- 是假设空间的函数,当假设空间容量增长时,泛化偏差上界就会变大,表示模型就更加难学。
- 泛化偏差上界定理及证实(建议跳过)
生成模型与判别模型
- 生成模型 (generative model): 模型表示了给定输入 X 产生输出 Y 的生成关系。
- 特色
- 还原出联合几率分布;
- 学习收敛速度快;
- 样本容量增长时,可以更好地逼近真实模型;
- 存在隐变量时,仍然可使用。
- 应用:朴素 Bayes 方法和隐马尔可夫模型 (Hidden Markov Model, HMM);
- 注:生成模型是比较难理解的概念,HMM 是理解生成模型比较好的途径,若是对 HMM 感兴趣能够参考
- 简单了解:[周志华,2018] P320
- 深刻理解:[Rabiner, 1989]
- 判别模型 (discriminative model): 由数据直接学习决策函数或者条件几率分布做为预测的模型
- 特色
- 直接学习获得条件几率分布或者决策函数;
- 直接面对预测,学习的准确率更高;
- 基于参数是直接学习获得的,所以能够对数据进行各类程度上的抽象、定义和使用特征,简化学习问题。
- 应用:k 近邻法、感知机、决策树、Logistic 回归模型、最大熵模型、支持向量机、提高方法和条件随机场等
分类问题
- 分类器 (classifier): 监督学习从数据中学习获得的分类模型或分类决策函数。
- 分类 (classification): 利用分类器对新输入的数据进行输出的预测。
- 解决分类问题的两个过程
- 学习过程:根据已知的训练数据集利用有效的“学习方法”获得一个分类器;
- 分类过程:利用学习获得的分类器对新输入的实例进行分类。
- 评价分类器性能的指标:分类准确率 (accuracy), 即对于给定的测试数据集,分类器正确分类的样本数与总样本数之比。
- 二类分类问题经常使用的评价指标:精确率 (precision) 与召回率 (recall)。
- 解决分类问题的经常使用方法:k 近邻法、感知机、朴素 Bayes 法,决策树、决策列表、Logistc 回归模型、支持向量机、提高方法等
标注问题
- 标注问题:是分类问题的推广,也是更复杂的结构预测问题的简单形式。
- 输入是一个观测序列;
- 输出是一个标记序列或状态序列。
- 目标是经过学习获得可以对观测序列给出标记序列做为预测的模型。
- 解决标注问题的两个过程:学习过程 和 标注过程
- 评价标注问题的指标:准确率、精确率和召回率。
- 解决标注问题的经常使用方法:隐 Markov 模型和条件随机场。
回归问题
- 回归 (regression): 用于预测输入变量(自变量)和输出变量(因变量)之间的关系。
- 回归模型:表示从输入变量到输出变量之间的映射关系的函数。
- 解决回归问题的两个过程:学习过程和预测过程。
- 回归问题的分类
- 按输入变量的个数:一元回归和多元回归;
- 按输入变量和输出变量之间的关系:线性回归和非线性回归。
- 回归学习最经常使用的损失函数:平方损失函数,求解平方损失函数能够用最小二乘法。
C02. 感知机
- 模型
- 感知机,是根据输入实例的特征向量对其进行二类分类的线性分类模型,属于判别模型;
- 模型参数包括:权值或权值向量,偏置。
- 模型对应于输入空间(特征空间)中的分离超平面;
- 策略
- 假设:感知机学习的训练数据集是线性可分的;
- 目标:求得一个可以将训练集正实例点和负实例点彻底正确分开的分离超平面;
- 策略:即定义(经验)损失函数,并将损失函数极小化;
- 损失函数定义为:误分类点的总数,不易优化;
- 损失函数定义为:误分类到分离超平面的总距离;
- 算法
- 感知机学习算法是基于偏差 - 修正的学习思想,是由误分类驱动的;
- 学习算法的优化方法
- 批量学习能够基于进行优化
- 一阶:最速降低法或梯度降低法;
- 二阶:牛顿法、共轭梯度法等等
- 在线学习:基于随机梯度降低法的对损失函数进行最优化 [Goodfellow, 2017] P95, P180
- 原始形式:算法简单且易于实现。先任意选取一个超平面,而后随机选择一个误分类点使其用梯度降低法极小化目标函数
- 例 2.1(比较简单,能够了解)
- 定理 2.1(过于简略,建议跳过)
- 对偶形式 (没看出与原始形式有何区别,也没从别的书上看到过这种说明方式,建议跳过)
- 当训练数据集线性可分时,感知机学习算法是收敛的,且有无穷多个解。
- 学习总结
- 感知机是神经网络的基础,本章只有单个神经元模型,深刻学习参考 [Haykin, 2011]
- 神经网络是深度学习的基础,深度学习参考 [Goodfellow, 2017]
- 距离度量是几何的概念,理论可参考 [Duda, 2003] P154
- 学习算法的优化是最优化理论,基本优化方法可参考 [Hyvarinen, 2007] P42
C03. k 近邻法
- k 近邻法 (k-nearest neighbor, k-NN) 是一个基本且简单的方法,用于分类与回归。
- 输入为实例的特征向量,对应于特征空间的点;
- 输出为实例的类别,能够取多个类。
- 基本思想
- 假设给定一个训练数据集,其中的实例类别已经肯定;
- 对新输入的实例分类时,根据其 k 个最近邻的训练实例的类别,经过多数表决等方式进行预测。
- 不具备显式的学习过程。
- 实际上利用训练数据集对特征向量空间进行切分,并做为其分类的 “模型”。
- k 近邻的模型
- 对应于基于训练数据集对特征空间的一个划分。
- 当训练集、距离度量、k 值及分类决策规则肯定后,输入实例所属类别也惟一肯定。
- k 近邻法的三个要素
- 学习准则:距离度量,经常使用欧氏距离;(距离定义)[Duda, 2003]
- k 值的选择:反映了近似偏差与估计偏差之间的权衡。
- k 值越大时,近似偏差会增大,估计偏差会减少,模型也越简单;
- k 值越小时,近似偏差会减小,估计偏差会增大,模型也越复杂。
- 能够用交叉验证的方式选择最优 k 值。
- 分类决策规则:多数表决规则 (marjority voting rule), 等价于 经验风险最小化。
- k 近邻法的实现基于 kd 树。(了解便可,实际应用中大多使用的是已经成熟的软件包)
- kd 树是一种便于对 k 维空间中的数据进行快速检索的数据结构;
- kd 树是二叉树,表示对 k 维空间的一个划分;
- kd 树的每一个圣战对应于 k 维空间划分中的一个超矩形区域;
- 利用 kd 树能够省去对大部分数据点的搜索,从而减小搜索的计算量。
- 学习总结
- 了解便可,由于面对高维问题效果不好,须要考虑降维操做。[周志华,2018] P225
C04. 朴素 Bayes 法
- 朴素 (naive) Bayes 法:是基于 Bayes 定理与全部特征都遵循条件独立性假设的分类方法。
- 朴素 Bayes 法是 Bayes 分类法的一种,遵循 Bayes 定理建模。[Mitchell, 2003] P112
- 朴素 Bayes 法基于的条件独立性假设是说用于分类的特征在类别肯定的条件下都是条件独立的。简化了计算复杂度,牺牲了分类准确率。
- 朴素 Bayes 法是生成学习方法。
- 先验几率分布;
- 条件几率分布;
- 后验几率分布。后验几率最大化准则等价于指望风险最小化准则。
- 目标:由训练数据学习联合几率分布;
- 朴素 Bayes 方法的几率参数估计方法:
- 极大似然估计 : 几率估计经常使用的方法;
- Bayes 估计 : 重点在于了解与极大似然估计的差异,才能够正确使用。
- 学习总结
- 虽然不须要本身估计参数,可是对估计的理解很重要,书中的描述过于简单,具体内容请参考 [Duda, 2003] P67
- 对于概念上的理解还能够参考 [周志华,2018] C07
C05. 决策树 (decision tree)
- 决策树模型
- 决策树是一种基本方法,用于分类与回归。
- 分类决策树模型
- 定义:是基于特征对实例进行分类的树形结构。
- 模型的组成结构
- 结点 (node)
- 内部结点 (internal node)
- 叶结点 (leaf node)
- 有向边 (directed edge)
- 分类决策树能够转换成一个 if-then 规则的集合;
- 决策树的根结点到叶结点的每一条路径构建一条规则;
- 路径上内部结点的特征对应着规则的条件,而叶结点的类对应着规则的结论。
- 重要的性质:互斥而且完备,即全覆盖。
- 覆盖是指实例的特征与路径上的特征一致或实例知足规则的条件。
- 也能够看做是定义在特征空间与类空间上的条件几率分布。
- 这个条件几率分布定义在特征空间的一个划分上,
- 将特征空间划分为互不相交的单元或区域,
- 并在每一个单元定义一个类的几率分布就构成了一个条件几率分布。
- 决策树分类时,将结点的实例分到条件几率大的类中。
- 主要优势:可读性强,分类速度快。
- 决策树学习
- 学习目的
- 根据给定的训练数据集,构建一个与训练数据拟合很好,而且复杂度小的决策树,使之可以对实例进行正确的分类。
- 决策树与训练数据的矛盾较小,同时还具备较好的泛化能力。
- 也能够看做由训练数据集估计条件几率模型
- 模型对训练数据拟合的效果很好;
- 模型对未知数据有很好的预测。
- 从全部可能的决策树中选取最优决策树是 NP 彻底问题;
- 学习准则:损失函数最小化。
- 学习算法
- 递归地选择最优特征,并根据该特征对训练数据进行分割,使之对各个数据集有一个最好的分类的过程。
- 决策树的学习算法包括 3 个部分
- 特征选择
- 特征选择的目的在于选取对训练数据可以分类的特征,提升决策树学习的效率;
- 特征选择的关键是其准则
- 样本集合 D 对特征 A 的信息增益 最大
- 信息增益定义为集合 D 的经验熵与特征 A 在给定条件下 D 的经验条件熵之差。
- 熵:表示随机变量不肯定性的度量。也称为经验熵。
- 条件熵:定义为 X 给定条件下 Y 的条件几率分布的熵对 X 的数学指望。也称为经验条件熵。
- 信息增益表示得知特征 X 的信息而使得类 Y 的信息的不肯定性减小的程度。
- 信息增益等价于训练数据集中类与特征的互信息。
- 信息增益依赖于特征,信息增益大的特征具备更强的分类能力。
- 样本集合 D 对特征 A 的信息增益比 最大
- 为了不信息增益对取值较多的特征的偏重,使用信息增益比来代替;
- 信息增益比:特征 A 对训练数据集 D 的信息增益与训练数据集 D 关于特征 A 的值的熵之比。
- 样本集合 D 的基尼指数 最小
- 树的生成
- 计算指标,再根据准则选取最优切分点,从根结点开发,递归地产生决策树。
- 经过不断地选择局部最优的特征,获得多是全局次优的结果。
- 树的剪枝:将已经生成的树进行简化的过程。
- 目的:因为生成的决策树存在过拟合问题,须要对它进行剪枝,以简化学到的决策树。
- 剪枝的准则:极小化决策树总体的损失函数或代价函数,等价于正则化的极大似然估计。
- 剪枝的分类
- 预剪枝:也叫分支中止准则。在决策树生成过程当中,对每一个结点在划分前先进行估计,若当前结点的划分不能带来决策树泛化性能提高,则中止划分并将当前结点标记为叶结点;
- 后剪枝:先从训练集生成一棵完整的决策树,而后自底向上地对非叶结点进行考察,若将该结点对应的子树替换为叶结点能带来决策树泛化性能提高,则将该子树替换为叶结点。
- 经常使用的学习算法
- ID3: 在决策树的各个结点上应用信息增益准则选择特征,递归地构建决策树。至关于用极大似然法进行几率模型的选择。
- C4.5: 在决策树的各个结点上应用信息增益比准则选择特征,递归地构建决策树。
- CART: 既可用于分类,也可用于回归。
- 等价于递归地二分每一个特征,将输入空间即特征空间划分为有限个单元,并在这些单元上肯定预测的几率分布,也就是在输入给定的条件下输出的条件几率分布。
- CART 算法的两个过程
- 决策树生成:基于训练数据集生成决策树,要尽可能大;
- 回归树生成
- 用平方偏差最小准则求解每一个单元上的最优输出值。
- 回归树一般称为最小二乘回归树。
- 分类树生成
- 用基尼指数选择最优特征,并决定该特征的最优二值切分点。
- 算法中止计算的条件
- 结点中的样本个数小于预约阈值;
- 样本集的基尼小于预约阈值;
- 决策树剪枝
- 用验证数据集对已经生成的树进行剪枝,剪枝的标准为损失函数最小,基于标准选择最优子树。
- 能够经过交叉验证法对用于验证的独立数据集上的子树序列进行测试,从中选择最优子树。
- [Duda, 2003] P320, CART 做为通用的框架,定义了 6 个问题
- 决策树的预测
- 学习总结
- 算法 (5.1, 5.2, 5.6) + 例题 ( 5.1, 5.2, 5.3, 5.4 ) 经过算法和例题能够加强理解;
- 损失函数的定义能够进一步参考 “不纯度” 指标 [Duda, 2003] P320, 或 “纯度” 指标 [周志华,2018] P75
- “不纯度” 指标是求极小值,能够跟梯度降低法等最优化理论结合。
C06. Logistic 回归与最大熵模型
- 模型
- Logistic 回归模型,也称为对数概率回归模型,输入是的线性函数,输出的是对数概率模型
- 基于 Logistic 分布创建的,表示条件几率的分类模型
- Logistic 分布是 Sigmoid 函数,定义 6.1
- 对数概率 (log odds) 或 logit 函数
- 一个事件的概率 (odds) 是指该事件发生的几率与该事件不发生的几率的比值。
- 二项 Logistic 回归模型是二类分类模型,定义 6.2
- 多项 Logistic 回归模型是多类分类模型
- 模型参数估计
- 最大熵模型
- 基于最大熵原理推导的,表示条件几率分布的分类模型,能够用于二类或多类分类。
- 最大熵原理认为,在全部可能的几率模型(分布)的集合中,熵最大的模型是最好的模型。
- 准则:最大熵原理是几率模型学习或估计的一个准则。
- 最大熵模型的学习
- 最大熵模型的学习过程就是求解最大熵模型的过程
- 最大熵模型的学习能够形式化为有约束的最优化问题(对偶问题)
- 例 6.1, 6.2 方便理解最大熵模型的算法原理。
- 算法
- 学习采用极大似然估计或者正则化极大似然估计
- 求解无约束最优化问题的算法
- 学习总结
- Logistic 模型与最大熵模型都属于对数线性模型。[周志华,2018] C03
- 极大似然估计:书里写的比较简单,没有原理性的说明,推荐([周志华,2018] P149, [Duda, 2003] P67)
- 模型学习的最优化算法:书里写的不太好理解。各类机器学习和模式识别的书里面都有介绍,推荐([周志华,2018] P403, [Hagan, 2006] C09)
C07. 支持向量机
- 支持向量机(Support Vector Machine, SVM)是一种二类分类模型。
- 基本模型是定义在特征空间上的间隔最大的线性分类器
- 基本概念
- 支持向量决定了最优分享超平面
- 最终判别时,只须要不多的“重要”训练样本,大幅减小计算量。
- 间隔(看懂数学公式就能够理解间隔,判别在数据的维度上又增长了一个维度)
- 与其余模型的比较
- 与感知机的区别:间隔最大化产生最优超平面;
- 与线性模型的区别:使用核技巧成为非线性分类器。
- 分类
- 线性可分支持向量机,硬间隔支持向量机。
- 线性支持向量机,软间隔支持向量机,是最基本的支持向量机。
- 非线性支持向量机
- 学习
- 线性可分支持向量机 (linear support vector machine in linearly separable case)
- 条件:训练数据线性可分;
- 学习策略:硬间隔最大化
- 求解可以正确划分训练数据集而且几何间隔最大的分离超平面
- 对训练数据集找到几何间隔最大的超平面意味着以充分大的确信度对训练数据进行分类
- 这样的超平面对未知原新实例有很好的分类预测能力
- 解的特征
- 最优解存在且惟一;(惟一性证实,建议跳过)
- 支持向量由位于间隔边界上的实例点组成;
- 线性支持向量机 (linear support vector machine)
- 条件
- 训练数据近似线性可分;
- 训练数据中存在一些特异点 (outlier)
- 学习策略:软间隔最大化
- 惩罚参数 C * 替代损失函数 f,表示误判的代价;
- hinge 损失(合页损失函数):保持了稀疏性
- 指数损失
- 对率损失:类似于对率回归模型
- 目标是使间隔尽可能大,误分类点尽可能少。
- 解的特征
- 权值惟一,偏置不惟一;
- 支持向量由位于间隔边界上的实例点、间隔边界与分离超平面之间的实例点、分离超平面误分一侧的实例点组成;
- 最优分享超平面由支持向量彻底决定。
- 非线性支持向量机 (non-linear support vector machine)
- 基本概念
- 线性空间:知足线性性质的空间
- 距离:是一种度量
- 距离的集合 ⟶ 度量空间 + 线性结构 ⟶ 线性度量空间
- 范数:表示某点到空间零点的距离
- 范数的集合 ⟶ 赋范空间 + 线性结构 ⟶ 线性赋范空间
- 内积空间:添加了内积运算的线性赋范空间
- 欧氏空间:有限维的内积空间
- 希尔伯特空间:内积空间知足完备性,即扩展到无限维
- 巴拿赫空间:赋范空间知足完备性
- 条件:
- 训练数据非线性可分;
- 经过非线性变换(核函数)将输入空间(欧氏空间或离散集合)转化为某个高维特征空间(希尔伯特空间)中的线性可分;
- 在高维特征空间中学习线性支持向量机。
- 学习策略:核技巧 + 软间隔最大化
- 最大间隔法
- 间隔概念
- 函数间隔:表示分类的正确性及确信度
- 几何间隔:规范化后的函数间隔,实例点到超平面的带符号的距离
- 分类
- 硬间隔最大化 (hard margin maximization)
- 软间隔最大化 (soft margin maximization)
- 间隔最大化的形式化
- 求解凸二次规划问题
- 正则化的合页损失函数的最小化问题
- 求解过程
- 原始最优化问题应用拉格朗日对偶性;
- 经过求解对偶问题获得原始问题的最优解。
- 中间也能够根据须要天然引入核函数。
- 核技巧 (kernel method) 通用的机器学习方法
- 应用条件
- 非线性可分训练数据能够变换到线性可分特征空间;
- 目标函数中的内积可使用非线性函数的内积替换;
- 非线性函数的内积可使用核函数替换;
- 核函数使非线性问题可解。
- 经常使用的核函数
- 线性核:对应于线性可分问题
- 多项式核函数
- 高斯核函数
- Sigmoid 核函数
- 函数组合获得的核函数
- 两个核函数的线性组合仍然是核函数,k1(x,z) 和 k2(x,z) 是核函数,c1 和 c2 是任意正数,则 k(x,z)=c1k1(x,z)+c2k2(x,z) 也是核函数。
- 两个核函数的直积仍然是核函数,k1(x,z) 和 k2(x,z) 是核函数,则 k(x,z)=k1(x,z)k2(x,z) 也是核函数。
- k1(x,z) 是核函数,g(z) 是任意函数,则 k(x,z)=g(z)k1(x,z)g(z) 也是核函数。
- SMO 算法
- 支持向量机学习的启发式快速算法
- 流程
- 将原二次规划问题分解为只有两个变量的二次规划子问题;
- 第一个变量是违反 KKT 条件最严重的变量;
- 第二个变量是使目标函数增加最快的变量;
- 目标是使两个变量所对应样本之间的间隔最大。
- 对子问题进行解析分解;
- 直到全部变量知足 KKT 条件为止。
- 学习总结
- 支持向量机与神经网络是两大重要的机器学习算法;
- 结合周老师的书一块儿看,对于理解支持向量机会有较大帮助。[周志华,2018] C06
- 深刻了解支持向量机的理论分析。[Haykin, 2011] C06
C08. 提高方法(集成学习)
提高方法是一种统计学习方法,也是一种提高模型学习能力和泛化能力的方法,仍是一种组合学习(集成学习)的方法,是统计学习中最有效的方法之一。html
- 为何要将各类学习方法组合起来?
- 强可学习方法与弱可学习方法的等价性;
- 将各类弱可学习方法组合起来就能够提高 (boost) 为强可学习方法
- 如何将各类学习方法组合起来?
- AdaBoost 算法
- 是一种通用的组合算法,能够将各类分类算法进行组合。
- 提高树
- 以分类树或回归树为基本分类器的提高方法(组合算法)
- 提高树是统计学习中性能最好的方法之一
- Bagging 算法(本章无介绍,了解请参考[周志华,2018] C8.3)
- AdaBoost 算法
- 模型:加法模型
- 如何改变训练数据的权值和几率分布:采用 “分而治之” 的方法。提升那些被前一轮弱分类器错误分类的样本的权值,从而保证后一轮的弱分类器在学习过程当中可以更多关注它们。
- 如何将弱分类器组合成一个强分类器:采用 “加权多数表决” 的方法。加大分类偏差率小的弱分类器的权值,从而保证它们在表决中起较大的做用。
- 策略:指数损失函数极小化,即经验风险极小化。
- 算法:前向分步算法来优化分步优化指数损失函数的极小化问题。
- 算法的训练偏差分析
- AdaBoost 可以在学习过程当中不断减小训练偏差,即减小训练数据集上的分类偏差率。
- AdaBoost 的训练偏差是以指数速率降低的。定理与证实建议跳过
- 算法的优化过程分析
- 由于学习的是加法模型,因此可以从前向后,每一步只学习一个基函数及基系数,逐步逼近优化目标函数,简化优化的复杂度。
- 前向分步算法与 AdaBoost 的关系:定理与证实建议跳过。
- 提高树模型
- 模型:加法模型,以决策树为基函数
- 策略:损失函数
- 分类问题:指数损失函数
- 回归问题:平方偏差函数
- 通常决策问题:通常损失函数
- 算法:前向分步算法
- 梯度提高算法(GBDT):解决离散数据的优化问题,原理参考、[Friedman, 2001]
- 学习总结
- 学习基础
- 熟悉重要的分类算法:神经网络和支持向量机
- 熟悉经常使用的分类算法:k 近邻法和决策树
- 学习目标
- 组合各类分类算法,从而产生质量更好的学习能力和泛化能力模型
- 胡思乱想
- 全链接的深度神经网络就是理论上最完美的组合模型,问题在于维度灾难带来的计算复杂度问题。
- 为了解决计算复杂度问题,就须要了解其余分类模型,由于其余分类模型就是具有了先验知识的神经网络模型,将那些分类模型转化为神经网络模型后就能够大幅减小链接的数量。
- 几率近似正确 (probably approximately correct, PAC) 来自计算学习理论,可参考[周志华,2018] C12, [Mitchell, 2003] C07
- 集成学习 (ensemble learning) 也被称为多分类器系统、基于委员会的学习等,可参考[周志华,2018] C08
C09. EM 算法及推广
- 学习基础
- 几率论:指望
- 最大似然估计或极大后验估计
- 梯度降低
- EM 算法是对含有隐变量的几率模型进行极大似然估计或者极大后验估计的迭代算法。
- E 步,求指望;利用数据和假设的初值,求得一个隐变量的条件几率分布的指望,即 “Q 函数”。(由于没法求得条件几率分布的具体值)
- M 步,求极值。利用 “Q 函数” 来求极值,这个极值能够帮助拟合的几率分布更加逼近真实分布。
- Q 函数的定义(理解 Q 函数的涵义能够更好地推广到应用中,开始不理解也不要紧,能够在应用中慢慢加深)
- EM 算法的推导(若是书上的没法理解,还能够参考本文中的其余文献)
- EM 算法是收敛的,可是有可能收敛到局部最小值。
- EM 算法能够当作利用凸函数进行几率密度逼近;
- 若是原几率密度函数有多个极值,初值的不一样就可能逼近到不一样的极值点,因此没法保证全局最优。
- EM 算法的应用(下面的两个应用都是重点,可是没法从本书中彻底理解,能够在将来的应用继续探索)
- 高斯混合模型
- HMM(隐 Markov 模型) 参考 C10
- EM 算法的推广(建议跳过,对了解 EM 算法帮助不大,只有深刻理解和研究 EM 算法才须要)
- F 函数的极大 - 极大算法
- 广义 EM 算法(GEM)
- 学习总结
- EM算法的详细推导。[Borman, 2004], 或者Determined22的EM算法简述及简单示例(三个硬币的模型)
- EM算法的几率分析。[Friedman, 2001], 或者苏剑林的梯度降低和EM算法
- EM算法的深刻理解。能够参考史春奇的Hinton和Jordan理解的EM算法
C10. 隐 Markov 模型(HMM)的算法及推广
- 学习基础
- 随机过程:用于理解 Markov 链的数学含义
- EM 算法:用于计算 HMM 的学习问题
- Markov 链的定义
- 随机过程
- 研究对象是随时间演变的随机现象。[盛骤,2015] C12
- 设 T 是一无限实数集,对依赖于参数 t(t 属于 T)的一族(无限多个)随机变量称为随机过程。
- 个人理解
- 随机过程在任一个时刻 t, 被观测到的状态是随机的,可是这个随机状态是由一个肯定的函数控制的。
- 例如:有 3 块金属放在箱子里面,任一个时刻 t 取出的金属是随机的,可是每块金属衰退的速度是由这块金属自身的函数控制的。
- 随机变量刻画的是数值的随机性(某个数出现的几率),随机过程刻画的是函数的随机性(某个函数出现的几率)
- Markov 过程
- Markov 性或无后效性:过程(或系统)在时刻 t_0 所处的状态为已知的条件下,过程在时刻 t>t_0 所处状态的条件分布与过程在时刻 t_0 以前所处的状态无关。即在已经知道过程“如今”的条件下,其“未来”不依赖于“过去”。[盛骤,2015] C13
- Markov 过程:具备 Markov 性的随机过程,称为 Markov 过程。
- Markov 链
- 时间和状态都是离散的 Markov 过程称为 Markov 链,简称马氏链。
- 深刻理解可参考 [Rabiner, 1989]
- HMM
- 关于时序的几率模型
- 用于描述一个被观测到的随机序列,这个随机序列是由不可观测的状态随机序列生成的,这个状态随机序列是由隐藏的 Markov 链随机生成的。
- 状态序列 Q:隐藏的 Markov 链随机生成的状态序列;
- 观测序列 O:每一个状态生成一个观测,一个状态序列就会生成一个观测序列。
- 序列的每个位置均可以看做一个时刻。
- HMM 的基本假设
- 齐次 Markov 假设,即假设隐藏的 Markov 链在任意时刻 t 的状态只依赖于前一个时刻的状态,而与其余时刻的状态及观测无关,也与时刻 t 无关;
- 观测独立性假设,即假设任意时刻 t 的观测只依赖于该时刻的 Markov 链的状态,与其余观测与状态无关。
- HMM 的基本元素
- N,模型的状态数;
- M,每一个状态生成的可观测的标志数;
- A,转移几率矩阵,a_{ij} 表示从状态 i 转移到状态 j 的几率;
- B,观测几率矩阵,b_{j} (k) 表示状态 j 产生标志 k 的几率;
- π,初始状态分布,π_i 表示一开始系统在状态 i 的几率。
- HMM 参数的数学表示:λ=(A, B, π)
- HMM 的三个基本问题
- 几率计算问题
- 给定观测序列 O 和模型参数 λ,计算基于这个模型下观测序列出现的几率 P(O|λ) ;
- 预测问题
- 给定观测序列 O 和模型参数 λ,寻找可以解释这个观测序列的状态序列,这个状态序列的可能性最大;
- 除非是退化的模型,不然不会有“正确”的状态序列,由于每一个状态序列都有能够生成观测序列;
- 只多是依据某个优化准则,使找到的状态序列尽量的逼近真实的状态序列。
- 学习问题
- 给定观测序列 O,寻找可以解释这个观测序列的模型参数 λ,使得 P(O|λ) 最大。
- 评测哪一个模型能最好地解释观测序列。
- HMM 的三个基本问题的解决方案
- 几率计算问题:前向算法;
- 先了解直接计算法,理解 HMM 须要计算的几率的方法和目的,同时明白直接计算法存在的问题;
- 再了解前向算法,若是利用栅格方法叠加前面计算的成果,从而下降直接计算法的庞大计算量。
- 预测问题:Viterbi 算法;
- 学习问题:前向 + 后向算法 +EM 算法。
- 利用前向 + 后向算法计算转移几率矩阵;
- 再基于 MLE 理论构造 P(O|λ) 函数;
- 由于函数中有三个参数不可知,没法直接计算获得,由于采用 EM 算法迭代求解。
- HMM 的基本类型
- 基本的 HMM 类型
- 4 状态遍历 HMM;其余类型都是遍历 HMM 的特例。
- 4 状态从左到右 HMM;
- 6 状态从左到右并行路径 HMM。
- 观测序列的密度是连续函数的 HMM:增长了混合高斯做为约束;
- 自回归的 HMM:很适合语音处理;
- 无输出的 HMM:即某些状态转移时无观测输出,主要用于语音识别;
- 一组状态到另外一组状态转换:组内状态无转移;
- 优化准则:利用几率理论(ML)或信息理论(MMI,MDI)刻画;
- 比较 HMM 模型:用于模型的测度和选择,经常使用的测度(交叉熵或散度或判别信息)
- HMM 算法的具体实现方法
- 观测数据的尺度化,方便计算机处理,防止溢出;
- HMM 模型的训练:经过多个观测序列进行训练,估计模型的参数;
- HMM 模型参数的初始值设定,没有形式化方法,只能凭借经验;
- 观测数据数量过少,或者观测数据不完整
- 扩大用于训练的观测集的大小(现实不可操做);
- 减小 HMM 模型的参数个数,即减少 HMM 模型的规模;
- 利用插值的方法补齐或者增长数据。
- HMM 模型的选择
- 肯定 HMM 模型的状态(模型状态数,模型路径数)
- 肯定 HMM 观测的标志(连续仍是离散,单个仍是混合)
- 无形式化方法,依赖于具体的应用。
- 学习总结
- 随机过程和 HMM 算法的基本概念的理解,特别是语音识别和语言处理方向的研究极为重要;
- HMM 算法的计算过程的了解,虽然能够调用成熟的模块,可是了解这个计算过程对于 HMM 计算的调优可能会有帮助;
- HMM 算法的学习极力推荐 [Rabiner, 1989],本章的框架就是基于这篇文章写的。
C11. 条件随机场(CRF)的算法及推广
- 条件随机场(Conditional Random Field, CRF)的基本概念
- 几率模型
- 提供了一种描述框架,将学习任务归结于计算变量的几率分布。
- 推断:利用已知变量推测未知变量的分布,核心是如何基于可观测变量推测出未知变量的条件分布。
- 生成模型与判别模型
- 生成 (generative) 模型
- 考虑联合分布,是全部变量的全几率模型;
- 由状态序列决定观测序列,所以能够模拟(“生成”)全部变量的值。
- 具备严格的独立性假设;
- 特征是事先给定的,而且特征之间的关系直接体如今公式中。
- 优势
- 处理单类问题比较灵活;
- 模型变量之间的关系比较清楚;
- 模型能够经过增量学习得到;
- 能够应用于数据不完整的状况。
- 缺点:模型的推导和学习比较复杂。
- 应用
- n 元语法模型
- HMM
- Markov 随机场
- Naive Bayes 分类器
- 几率上下文无关文法
- 判别 (discriminative) 模型
- 考虑条件分布,认为由观测序列决定状态序列,直接对后验几率建模;
- 从状态序列中提取特征,学习模型参数,使得条件几率符合必定形式的最优。
- 特征能够任意给定,通常利用函数进行表示。
- 优势:模型简单,容易创建与学习;
- 缺点:描述能力有限,变量之间的关系不清晰,只能应用于有监督学习。
- 应用
- 最大熵模型
- 条件随机场
- 最大熵 Markov 模型 (maximum-entropy Markov model, MEMM)
- 感知机
- 几率图模型:是一类用图来表达变量相关关系的几率模型,
- 有向图模型(Bayes 网):使用有向无环图表示变量间的依赖关系,如:推导关系
- 静态 Bayes 网络
- 动态 Bayes 网络:适合处理通常图问题
- 隐 Markov 模型:结构最简单的动态 Bayes 网,适合处理线性序列问题,可用于时序数据建模,主要应用领域为语音识别、天然语言处理等。
- 无向图模型(Markov 网):使用无向图表示变量间的依赖关系,如:循环关系
- Markov 随机场:典型的 Makrov 网
- Boltzman 机
- 通用条件随机场:适合处理通常图问题
- 随机场:
- 几率图模型
- 在几率模型的基础上,使用了基于图的方法来表示几率分布(或者几率密度、密度函数),是一种通用化的不肯定性知识表示和处理的方法。
- 图是表示工具
- 结点表示一个或者一组随机变量
- 结点之间的边表示变量间的几率依赖关系,即“变量关系图”。
- Bayes 网络(信念网,信度网,置信网)
- 目的:经过几率推理处理不肯定性和不完整性问题
- 构造 Bayes 网络的主要问题
- 表示:在某一随机变量的集合上给出其联合几率分布。
- 推断:由于模型完整描述了变量及其关系,能够推断变量的各类问题。
- 精确推理方法:变量消除法和团树法
- 近似推理方法:重要性抽样法、MCMC 模拟法、循环信念传播法和泛化信念传播法等
- 学习:决定变量之间相互关联的量化关系,即储存强度估计。
- 参数学习经常使用方法:MLE、MAP、EM 和 Bayes 估计法。
- 结构学习:
- Markov 随机场 (Markov Random Field, MRF)
- 定义
- 是一组有 Markov 性质的随机变量的联合几率分布模型,
- 联合几率分布知足成对、局部和全局 Markov 性。
- 由一个无向图 G 和定义 G 上的势函数组成。
- 基本概念
- 团 (clique):是图中结点的一个子集,团内任意两个结点都有边相连。也称为彻底子图 (complete subgraph)。
- 极大团 (maximal clique):若在一个团 C 中加入任何一个结点都再也不造成团,就说那个团 C 是最大团。极大团就是不能被其余团所包含的团。
- 因子分解 (factorization):将几率无向图模型的联合几率分布表示为其最大团上的随机变量的函数的乘积形式的操做。
- 分离集 (separating set):若从结点集 A 中的结点到结点集 B 中的结点都必须通过结点集 C 中的结点,则称结点集 A 和 B 被结点集 C 所分离。
- 全局 Markov 性:给定两个变量子集的分离集,则这两个变量子集条件独立
- 局部 Markov 性:给定某变量的邻接变量,则该变量独立于其余变量
- 成对 Markov 性:给定全部其余变量,两个非邻接变量条件独立 。
- 势函数
- 用于将模型进行参数化的参数化因子,称为团势能或者团势能函数,简称势函数。
- 定义在变量子集上的非负实函数,主要用于定义几率分布函数,亦称“因子”。
- 多个变量之间的联合几率能够基于团分解为多个因子的乘积。
- 指数函数常常被用于定义势函数。
- 条件随机场 (Conditional Random Field, CRF)
- 用来处理标注和划分序列结构数据的几率化结构模型。
- 是给定一组输入随机变量条件下另外一组输出随机变量的条件几率分布模型
- 线性链条件随机场
- 输入序列对输出序列预测的判别模型
- 形式为对数线性模型
- 构造 CRF 的主要问题
- 优势:相比于 HMM 没有独立性要求,相比于条件 Markov 模型没有标识偏置问题。
- 学习总结
- 本书的描述概念性内容过少,不利于理解,建议阅读 [周志华,2018] C14
- 以几率图模型为基础来理解条件随机场会更加容易,也可以保证知识相互之间的联系,还能够加深对 HMM 的理解。
- CRF 的主要应用是天然语言处理,所以结合天然语言处理来理解概念也会更加深入。 [宗成庆,2018] C06
- 虽然国内几本书都写的不错,可是 CRF 都不是他们书中的重点,若想深刻学习 CRF 仍是请参考 [Sutton, 2012]
C12. 统计学习方法总结
10 种统计学习方法特色的归纳总结node
方法 |
适用问题 |
模型特色 |
模型类型 |
学习策略 |
学习的损失函数 |
学习算法 |
感知机 |
二类分类 |
分离超平面 |
判别模型 |
极小化误分点到超平面距离 |
误分点到超平面距离 |
随机梯度降低 |
K 近邻法 |
多类分类,回归 |
特征空间,样本点 |
判别模型 |
____ |
____ |
____ |
朴素贝叶斯 |
多类分类 |
特征与类别的联合几率分布区,条件独立假设 |
生成模型 |
极大似然估计,极大后验几率估计 |
对数似然损失 |
几率计算公式,EM 算法 |
决策树 |
多类分类,回归 |
分类树,回归树 |
判别模型 |
正则化的极大似然估计 |
对数似然损失 |
特征选择,生成,剪枝 |
逻辑斯蒂回归与最大熵模型 |
多类分类 |
特征条件下类别的条件几率分布,对数线性模型 |
判别模型 |
极大似然估计,正则化的极大似然估计 |
逻辑斯蒂损失 |
改进的迭代尺度算法,梯度降低,拟牛顿法 |
支持向量机 |
二类分类 |
分离超平面,核技巧 |
判别模型 |
极小化正则化的合页损失,软间隔最大化 |
合页损失 |
序列最小最优化算法 (SMO) |
提高方法 |
二类分类 |
弱分类器的线形组合 |
判别模型 |
极小化加法模型的指数损失 |
指数损失 |
前向分布加法算法 |
EM 算法 |
几率模型参数估计 |
含隐变量几率模型 |
____ |
极大似然估计,极大后验几率估计 |
对数似然损失 |
迭代算法 |
隐马尔可夫模型 |
标注 |
观测序列与状态序列的联合几率分布模型 |
生成模型 |
极大似然估计,极大后验几率估计 |
对数似然损失 |
几率计算公式,EM 算法 |
条件随机场 |
标注 |
状态序列条件下观测序列的条件几率分布,对数线性模型 |
判别模型 |
极大似然估计,正则化极大似然估计 |
对数似然损失 |
改进的迭代尺度算法,梯度降低,拟牛顿法 |
参考文献
- [Borman, 2004] Borman S. The expectation maximization algorithm-a short tutorial [J]. Submitted for publication, 2004, 41.
- [Charles, 2011] Charles Sutton and Andrew McCallum, An Introduction to Conditional Random Fields [J]. Machine Learning 4.4 (2011): 267-373.
- [Determined22, 2017] Determined22, http://www.cnblogs.com/Determined22/p/5776791.html , 2017.
- [Duda, 2003] Duda R O, Peter E Hart, etc. 李宏东等译。模式分类 [M]. 机械工业出版社。2003.
- [Friedman, 2001] Friedman, Jerome H. “Greedy Function Approximation: A Gradient Boosting Machine.” Annals of Statistics, vol. 29, no. 5, 2001, pp. 1189–1232.
- [Friedman, 2001] Friedman J, Hastie T, Tibshirani R. The elements of statistical learning [M]. New York: Springer series in statistics, 2001.
- [Goodfellow, 2017] Goodfellow I, Bengio Y, Courville A. 深度学习 [M]. 人民邮电出版社。2017.
- [Hagan, 2006] Martin T. Hagan. 戴葵等译。神经网络设计 [M]. 2002.
- [Haykin, 2011] Haykin S . 神经网络与机器学习 [M]. 机械工业出版社。2011.
- [Hyvarinen, 2007] Aapo Hyvarinen, Juha Karhunen. 周宗潭译 独立成分分析 [M]. 电子工业出版社。2007.
- [Mitchell, 2003] Tom M.Mitchell. 肖华军等译。机器学习 [M]. 机械工业出版社。2003
- [Rabiner, 1989] Rabiner L R. A tutorial on hidden Markov models and selected applications in speech recognition [J]. Proceedings of the IEEE, 1989, 77(2): 257-286.
- [Samuel, 2007] Samuel Karlin M.Taylor 著,庄兴无等译。 随机过程初级教程。 [M]. 人民邮电出版社, 2007.
- [Sutton, 2012] Sutton, Charles, and Andrew McCallum. “An introduction to conditional random fields.” Foundations and Trends® in Machine Learning 4.4 (2012): 267-373.
- [周志华,2018] 周志华 机器学习 [M]. 清华大学出版社。2018
- [苏剑林,2017] 苏剑林,https://spaces.ac.cn/archives/4277 , 2017.
- [盛骤,2015] 盛骤等编,几率论与数理统计(第四版)。 [M]. 高等教育出版社。 2015.
- [宗成庆,2018] 宗成庆著,统计天然语言处理(第二版)。 [M]. 清华大学出版社。 2018.
符号说明
- Pxx,表明第 xx 页;
- Cxx,表明第 xx 章;
- [M],表明图书;
- [J],表明杂志;