Python机器学习笔记:不得不了解的机器学习面试知识点(1)

  机器学习岗位的面试中一般会对一些常见的机器学习算法和思想进行提问,在平时的学习过程当中可能对算法的理论,注意点,区别会有必定的认识,可是这些知识可能不系统,在回答的时候未必能在短期内答出本身的认识,所以将机器学习中常见的原理性问题记录下来,保持对各个机器学习算法原理和特色的熟练度。html

  本文总结了机器学习一些面试题和笔试题,以便本身学习,固然了也为了方便你们,题目是网上找的额,若是有侵权请联系小编,还有,不喜勿喷,谢谢!!!面试

  后一篇笔记: Python机器学习笔记:不得不了解的机器学习知识点(2)算法

算法分类

  下面图片是借用网友作的,很好的总结了机器学习的算法分类:数据库

 

问答题

问1:协方差和相关性有什么区别?

  答:相关性是协方差的标准化格式。协方差自己很难作比较。例如:若是咱们计算工资(¥)和年龄(岁)的协方差,由于这两个变量有不一样的度量,因此咱们会获得不能作比较的不一样的协方差。为了解决这个问题,咱们计算相关性来获得一个介于-1和1之间的值,就能够忽略它们各自不一样的度量。编程

问2:你认为把分类变量当成连续型变量会获得一个更好的预测模型吗?

  答:为了获得更好的预测,只有在分类变量在本质上是有序的状况下才能够被当作连续型变量来处理。浏览器

问3:“买了这个的客户,也买了.....”亚马逊的建议是那种算法的结果?

   答:这种推荐引擎的基本想法来源于协同过滤。协同过滤算法考虑用于推荐项目的“用户行为”。他们利用的是其余用户的购物行为和针对商品的交易历史记录,评分,选择和购物信息。针对商品的其余用户的行为和偏好用来推荐项目(商品)给新用户。在这中状况下,项目(商品)的特征是未知的。网络

问4:在K-means或者KNN,咱们是用欧氏距离来计算最近的邻居之间的距离,为何不用曼哈顿距离?

  答:咱们不用曼哈顿距离,由于它只计算水平或者垂直距离,有维度的限制。另外一方面,欧氏距离能够用于任何空间的距离计算问题。由于,数据点能够存在于任何空间,欧式距离是更可行的选择。例如:想象一下国际象棋棋盘,象或者车全部的移动的由曼哈顿距离计算的,由于他们是在各自的水平和垂直方向作的运动。数据结构

问5:为何朴素贝叶斯如此“朴素”?

  答:由于它假定全部的特征在数据集中的做用是一样重要和独立的。正如咱们所知,这个假设在现实世界中是很不真实的,所以说朴素贝叶斯真的很“朴素”。app

 问6:咱们知道校订R2或者F值是用来评估线性回归模型的,那么用什么来评估逻辑回归模型?

  答:咱们可使用如下方法:框架

  1,因为逻辑回归是用来预测几率的,咱们能够用AUC-ROC曲线以及混淆矩阵来肯定其性能。

  2,此外,在逻辑回归中相似于校订R2 的指标是AIC。AIC是对模型系数数量惩罚模型的拟合度量。所以,咱们更偏心有最小的AIC的模型。

  3,空误差指的是只有截距项的模型预测的响应。数值越低,模型越好。残余误差表示由添加自变量的模型预测的响应。数值越低,模型越好。

问7:真阳性率和召回有什么关系?写出方程式。

  答:真阳性率 == 召回  他们有共同的公式(TP/(TP+FN))

问8:你是怎么理解误差方差的平衡的?

  答:从数学的角度来看,任何模型出现的偏差能够分为三个部分。分别是:

  误差偏差在量化平均水平之上,预测值跟实际值相差多远时有用。高误差偏差意味着咱们的模型表现不太好,由于没有抓到重要的趋势。而另外一方面,方差量化了在同一个观察上进行的预测是如何彼此不一样的。高方差模型会过分拟合你的训练集,而在训练集之外的数据上表现不好。

问9:给你一个有1000列和1百万行的训练数据集,这个数据集是基于分类问题的。经理要求你来下降该数据集的维度以减小模型计算时间,可是你的机器内存有限,你会怎么作?(你能够自由作各类实际操做假设。)

  答:你的面试官应该很是了解很难在有限的内存上处理高纬的数据,如下是你可使用到的方法:

  1,因为咱们的RAM很小,首先要关闭机器上正在运行的其余程序,包括网页浏览器等,以确保大部份内存可使用。

  2,咱们能够随机采样数据集。这意味着,咱们能够建立一个较小的数据集,好比有1000个变量和30万行,而后作计算。

  3,为了下降维度,咱们能够吧数值变量和分类变量分开,同时删掉相关联的变量,对于数据变量,咱们将使用相关性分析;对于分类变量,咱们能够用卡方检验。

  4,另外,咱们还可使用PAC,并挑选能够解释在数据集中有最大误差的成分。

  5,利用在线学习算法,如VowpalWabbit(在Python中可用)是一个不错的选择。

  6,利用Stochastic GradientDescent(随机梯度降低法)创建线性模型也颇有帮助。

  7,咱们也能够用咱们对业务的理解来估计个预测变量对响应变量的影响的大小。可是,这是一个主观的方法,若是没有找到有用的预测变量可能会致使信息的显著丢失。

问10:全球平均温度的上升致使世界各地的海盗数量减小,这是否意味着海盗的数量减小引发气候变化?

  答:不可以这样说,这是一个“因果关系和相关性”的经典案例。全球平均温度和海盗数量之间有可能有相关性,但基于这些信息,咱们不能说由于全球平均气温的上升而致使了海盗的消失。咱们不能判定海盗的数量减小是引发气候变化的缘由,由于可能有其余因素(潜伏或混杂因素)影响这一现象。

问11:给你一个数据集,这个数据集有缺失值,且这些缺失值分布在高中值有1一个标准误差的的范围内,百分之多少的数据不会受到影响?为何?

  答:大约有32%的数据将不会受到缺失值的影响。由于,因为数据分布在中位数附近,让咱们先假设这是一个正态分布。咱们知道,在一个正态分布中,约有68%的数据位于跟平均值(或者众数,中位数)1个标准差范围内,那么剩下的约32%的数据是不受影响的。所以,约有32%的数据将不受缺失值的影响。

问12:有监督学习和无监督学习的区别

  有监督学习:对具备标记的训练样本进行学习,以尽量对训练样本集外的数据进行分类预测。(LR,SVM,BP,RF,GBDT)

  无监督学习:对未标记的样本进行训练学习,比发现这些样本中的结构知识。(KMeans,DL)

问13:正则化

  答:正则化是针对过拟合而提出的,觉得在求解模型最优的是通常优化最小的经验风险,如今在该经验风险上加上模型复杂度这一项(正则化项是模型参数向量的范数),并使用一个rate比率来权衡模型复杂度比以往经验风险的权重,若是模型复杂度越高,结构化的经验风险会越大,如今的目标就变为告终构经验风险的最优化,能够防止模型训练过分复杂,有效的下降过拟合的风险。

  奥卡姆剃刀原理:可以很好的解释已知数据而且十分简单才是最好的模型。

问14:线程分类器与非线性分类器的区别以及优劣

  答:若是模型是参数的线性函数,而且存在线性分类面,那么就是线性分类器,负责不是。  经常使用的线性分类器有:LR ,贝叶斯分类,单层感知器,线性回归

  常见的非线性分类器:决策树,RF,GBDT,多层感知机

  SVM两种都有(看线性核仍是高斯核)

  线性分类器速度快,编程方便,可是可能拟合效果不会很好

  非线性分类器编程复杂,可是效果拟合能力强

问15:介绍卷积神经网络,和 DBN 有什么区别?

  卷积神经网络的特色是卷积核,CNN中使用了权共享,经过不断的上采用和卷积获得不一样的特征表示,采样层又称为pooling层,基于局部相关性原理进行亚采样,在减小数据量的同时保持有用的信息。DBN是深度信念网络,每一层是一个RBM,整个网络能够视为RBM堆叠获得,一般使用无监督逐层训练,从第一层开始,每一层利用上一层的输入进行训练,等各层训练结束以后再利用BP算法对整个网络进行训练。

问16:采用 EM 算法求解的模型有哪些,为何不用牛顿法或梯度降低法?

  用EM算法求解的模型通常有GMM或者协同过滤,k-means其实也属于EM。EM算法必定会收敛,可是可能收敛到局部最优。因为求和的项数将随着隐变量的数目指数上升,会给梯度计算带来麻烦。

问17:用 EM 算法推导解释 Kmeans。

  k-means算法是高斯混合聚类在混合成分方差相等,且每一个样本仅指派一个混合成分时候的特例。注意k-means在运行以前须要进行归一化处理,否则可能会由于样本在某些维度上过大致使距离计算失效。k-means中每一个样本所属的类就能够当作是一个隐变量,在E步中,咱们固定每一个类的中心,经过对每个样本选择最近的类优化目标函数,在M步,从新更新每一个类的中心点,该步骤能够经过对目标函数求导实现,最终可得新的类中心就是类中样本的均值。

问18:用过哪些聚类算法,解释密度聚类算法。

  k-means算法,聚类性能的度量通常分为两类,一类是聚类结果与某个参考模型比较(外部指标),另外是直接考察聚类结果(内部指标)。后者一般有DB指数和DI,DB指数是对每一个类,找出类内平均距离/类间中心距离最大的类,而后计算上述值,并对全部的类求和,越小越好。相似k-means的算法仅在类中数据构成簇的状况下表现较好,密度聚类算法从样本密度的角度考察样本之间的可链接性,并基于可链接样本不断扩展聚类蔟获得最终结果。

  DBSCAN(density-based spatial clustering of applications with noise)是一种著名的密度聚类算法,基于一组邻域参数进行刻画,包括邻域,核心对象(邻域内至少包含个对象),密度直达(j由i密度直达,表示j在i的邻域内,且i是一个核心对象),密度可达(j由i密度可达,存在样本序列使得每一对都密度直达),密度相连(xi,xj存在k,i,j均有k可达),先找出样本中全部的核心对象,而后以任一核心对象做为出发点,找出由其密度可达的样本生成聚类蔟,直到全部核心对象被访问过为止。

问19:聚类算法中的距离度量有哪些?

  聚类算法中的距离度量通常用闽科夫斯基距离,在p取不一样的值下对应不一样的距离,例如p=1的时候对应曼哈顿距离,p=2的状况下对应欧式距离,p=inf的状况下变为切比雪夫距离,还有jaccard距离,幂距离(闽科夫斯基的更通常形式),余弦类似度,加权的距离,马氏距离(相似加权)做为距离度量须要知足非负性,同一性,对称性和直递性,闽科夫斯基在p>=1的时候知足读来那个性质,对于一些离散属性例如{飞机,火车,轮船}则不能直接在属性值上计算距离,这些称为无序属性,能够用VDM(Value Diffrence Metrix),属性u上两个离散值a,b之间的VDM距离定义为

  其中表示在第i个簇中属性u上a的样本数,样本空间中不一样属性的重要性不一样的时候能够采用加权距离,通常若是认为全部属性重要性相同则要对特征进行归一化。通常来讲距离须要的是类似性度量,距离越大,类似度越小,用于类似性度量的距离未必必定要知足距离度量的全部性质,例如直递性。好比人马和人,人马和马的距离较近,而后人和马的距离可能就很远。

问20:解释贝叶斯公式和朴素贝叶斯分类。

  贝叶斯公式

 

最小化分类错误的贝叶斯最优分类器等价于最大化后验几率。

  基于贝叶斯公式来估计后验几率的主要困难在于,条件几率是全部属性上的联合几率,难以从有限的训练样本直接估计获得。朴素贝叶斯分类器采用了属性条件独立性假设,对于已知的类别,假设全部属性相互独立。这样,朴素贝叶斯分类则定义为

           

  若是有足够多的独立同分布样本,那么能够根据每一个类中的样本数量直接估计出来。在离散状况下先验几率能够利用样本数量估计或者离散状况下根据假设的几率密度函数进行最大似然估计。朴素贝叶斯能够用于同时包含连续变量和离散变量的状况。若是直接基于出现的次数进行估计,会出现一项为0而乘积为0的状况,因此通常会用一些平滑的方法,例如拉普拉斯修正,

问21:TF-IDF是什么?

  TF指Term frequecy,表明词频,IDF表明inverse document frequency,叫作逆文档频率,这个算法能够用来提取文档的关键词,首先通常认为在文章中出现次数较多的词是关键词,词频就表明了这一项,然而有些词是停用词,例如的,是,有这种大量出现的词,首先须要进行过滤,好比过滤以后再统计词频出现了中国,蜜蜂,养殖且三个词的词频几乎一致,可是中国这个词出如今其余文章的几率比其余两个词要高很多,所以咱们应该认为后两个词更能表现文章的主题,IDF就表明了这样的信息,计算该值须要一个语料库,若是一个词在语料库中出现的几率越小,那么该词的IDF应该越大,通常来讲TF计算公式为(某个词在文章中出现次数/文章的总词数),这样消除长文章中词出现次数多的影响,IDF计算公式为log(语料库文章总数/(包含该词的文章数)+1)。将二者乘乘起来就获得了词的TF-IDF。传统的TF-IDF对词出现的位置没有进行考虑,能够针对不一样位置赋予不一样的权重进行修正,注意这些修正之因此是有效的,正是由于人观测过了大量的信息,所以建议了一个先验估计,人将这个先验估计融合到了算法里面,因此使算法更加的有效。

问22:文本中的余弦距离是什么,有哪些做用?

  余弦距离是两个向量的距离的一种度量方式,其值在-1~1之间,若是为1表示两个向量同相,0表示两个向量正交,-1表示两个向量反向。使用TF-IDF和余弦距离能够寻找内容类似的文章,例如首先用TF-IDF找出两篇文章的关键词,而后每一个文章分别取出k个关键词(10-20个),统计这些关键词的词频,生成两篇文章的词频向量,而后用余弦距离计算其类似度。

简答题

1.什么是机器学习

    简单的说,机器学习就是让机器从数据中学习,进而获得一个更加符合现实规律的模型,
经过对模型的使用使得机器比以往表现的更好,这就是机器学习。

对上面这句话的理解:

数据:从现实生活抽象出来的一些事物或者规律的特征进行数字化获得。

学习:在数据的基础上让机器重复执行一套特定的步骤(学习算法)进行事物特征的萃取,
    获得一个更加逼近于现实的描述(这个描述是一个模型它的自己可能就是一个函数)。我
    们把大概可以描述现实的这个函数称做咱们学到的模型。

更好:咱们经过对模型的使用就能更好的解释世界,解决与模型相关的问题。

 

2.机器学习与数据挖掘的区别

    数据挖掘和机器学习的区别和联系,周志华有一篇很好的论述《机器学习和
数据挖掘》能够帮助你们理解。
   数据挖掘受到不少学科领域的影响,其中数据库、机器学习、统计学无疑影响
最大。简言之,对数据挖掘而言,数据库提供数据管理技术,机器学习和统计学
提供数据分析技术。

   因为统计学每每醉心于理论的优美而忽视实际的效用,所以,统计学界提供的
不少技术一般都要在机器学习界进一步研究,变成有效的机器学习算法以后才能
再进入数据挖掘领域。从这个意义上说,统计学主要是经过机器学习来对数据挖
掘发挥影响,而机器学习和数据库则是数据挖掘的两大支撑技术。

    从数据分析的角度来看,绝大多数数据挖掘技术都来自机器学习领域,但机器
学习研究每每并不把海量数据做为处理对象,所以,数据挖掘要对算法进行改造,
使得算法性能和空间占用达到实用的地步。同时,数据挖掘还有自身独特的内容,
即关联分析。

    而模式识别和机器学习的关系是什么呢,传统的模式识别的方法通常分为两种:
统计方法和句法方法。句法分析通常是不可学习的,而统计分析则是发展了很多机
器学习的方法。也就是说,机器学习一样是给模式识别提供了数据分析技术。

   至于,数据挖掘和模式识别,那么从其概念上来区分吧,数据挖掘重在发现知识,
模式识别重在认识事物。

   机器学习的目的是建模隐藏的数据结构,而后作识别、预测、分类等。所以,机器
学习是方法,模式识别是目的。

   总结一下吧。只要跟决策有关系的都能叫 AI(人工智能),因此说 PR(模式识别)、
DM(数据挖掘)、IR(信息检索) 属于 AI 的具 体应用应该没有问题。 研究的东西则
不太同样, ML(机器学习) 强调自我完善的过程。 Anyway,这些学科都是相通的。

 

3.什么是机器学习的过分拟合现象

  若是一味的去提升训练数据的预测能力,所选模型的复杂度每每会很高,这种现象称为过拟合,所表现的就是模型训练时候的偏差很小,但在测试的时候偏差很大。

    指在模型参数拟合过程当中的问题,因为训练数据包含抽样偏差,训练时,
复杂的模型将抽样偏差也考虑在内,将抽样偏差也进行了很好的拟合。具体表
现就是训练集上效果好,在测试集上效果差。模型泛化能力弱。

 

4.过分拟合产生的缘由

过拟合的第一个缘由,就是建模样本抽取错误,包括(但不限于)样本数量太少,
    抽样方法错误,抽样时没有足够正确考虑业务场景或业务特色,等等致使抽出
    的样本数据不能有效足够表明业务逻辑或业务场景;

过拟合的第二个缘由,就是样本里的噪音数据干扰过大,大到模型过度记住了噪音
    特征,反而忽略了真实的输入输出间的关系;

过拟合的第三个缘由,就是在决策树模型搭建中,若是咱们对于决策树的生长没有
    合理的限制和修剪的话,决策树的自由生长有可能每片叶子里只包含单纯的事件
    数据(event)或非事件数据(no event),能够想象,这种决策树固然能够完
    美匹配(拟合)训练数据,可是一旦应用到新的业务真实数据时,效果是一塌糊涂。

过拟合的第四个缘由,就是建模时的“逻辑假设”到了模型应用时已经不能成立了。任
    何预测模型都是在假设的基础上才能够搭建和应用的,经常使用的假设包括:假设历
    史数据能够推测将来,假设业务环节没有发生显著变化,假设建模数据与后来的
    应用数据是类似的,等等。若是上述假设违反了业务场景的话,根据这些假设搭
    建的模型固然是没法有效应用的。

过拟合的第五个缘由,就是建模时使用了太多的输入变量,这跟上面第二点(噪音数据)
    有些相似,数据挖掘新人经常犯这个错误,本身不作分析判断,把全部的变量交给
    软件或者机器去“撞大运”。须知,一个稳定优良的模型必定要遵循建模输入变量“
    少而精”的原则的。

上面的缘由都是现象,可是其本质只有一个,那就是“业务理解错误形成的”,不管是抽样,
    仍是噪音,仍是决策树,神经网络等等,若是咱们对于业务背景和业务知识很是了解,
    很是透彻的话,必定是能够避免绝大多数过拟合现象产生的。由于在模型从肯定需求,
    到思路讨论,到搭建,到业务应用验证,各个环节都是能够用业务敏感来防止过拟合
    于未然的。

 

5.如何避免过分拟合

  当你使用较小的数据集进行机器学习时,容易产生过分拟合,所以使用较大的数据量能避免过分拟合现象。可是当你不得不使用小型数据集进行建模时候,可使用被称为交叉验证的技术。在这种方法中数据集被分为两节,测试和训练数据集,测试数据集只测试模型,而在训练数据集中,数据点被用来建模。

  在该技术中,一个模型一般是被给定有先验知识的数据集(训练数据集)进行训练,没有先验知识的数据集进行测试,交叉验证的思想是:在训练阶段,定义一个数据集用来测试模型。

1. dropout:训练神经网络模型时,若是训练样本较少,为了防止模型过拟合,
    Dropout能够做为一种trikc供选择。

2. early stop结合cross validation使用。

3. 尽量的扩大 training dataset,增长训练集的全面性和数量

 

6.什么是感应式的机器学习?

    感应机器学习涉及由实践进行学习的过程,能从一组可观测到的例子的尝试推导出广泛性规则

 

7.什么是机器学习的五个流行的算法?

    1,决策树
    2,神经网络
    3,几率网络
    4,最邻近法
    5,支持向量机

 

8.机器学习有哪些不一样的算法技术?

    在机器学习中不一样类型的算法技术是:
    1,监督学习     2,非监督学习
    3,半监督学习   4,转导推理(Transduction)
    5, 学习推理(Learning  to Learn)

 

9.在机器学习中,创建假设或者模型的三个阶段指的是什么?

    1,建模
    2,模型测试
    3,模型应用

 

10.什么是监督学习的标准方法?

    监督学习的标准方法是将一组示例数据的分红训练数据集和测试数据集

 

11.什么是训练数据集和测试数据集?

    在相似于机器学习的各个信息科学相关领域中,一组数据被用来发现潜在的预测关系,
称为“训练数据集”。训练数据集是提供给学习者的案例,而试验数据集是用于测试由学习
者提出的假设关系的准确度。

 

12.下面列出机器学习的各类方法?

机器学习的各类方法以下“

1.概念与分类学习(Concept Vs Classification Learning)。

2.符号与统计学习(Symbolic Vs Statistical Learning)。

3.概括与分析学习(Inductive Vs Analytical Learning)。

 

13.非机器学习有哪些类型?

人工智能    规则推理

 

14.什么是非监督学习的功能?

    1.求数据的集群
    2. 求出数据的低维表达
    3. 查找数据有趣的方向
    4. 有趣的坐标和相关性
    5.发现显著的观测值和数据集清理

 

15.什么是监督学习的功能?

1.分类      2.语音识别     3.回归     4.时间序列预测     5. 注释字符串

 

16.什么是算法独立的机器学习?

    机器学习在基础数学领域独立于任何特定分类器或者学习算法,被称为算法独立的机器学习。

 

17.人工智能与机器学习的区别?

    基于经验数据的特性而设计和开发的算法被称为机器学习。而人工智能不但包
括机器学习,还包括诸如知识表示,天然语言处理,规划,机器人技术等其它方法。

 

18.在机器学习中分类器指的是什么?

    在机器学习中,分类器是指输入离散或连续特征值的向量,并输出单个离散值或者类型的系统。

 

19.朴素贝叶斯方法的优点是什么?

    朴素贝叶斯分类器将会比判别模型,譬如逻辑回归收敛得更快,所以你只须要
更少的训练数据。其主要缺点是它学习不了特征间的交互关系。

 

20.在哪些领域使用模式识别技术?

模式识别被应用在:

1计算机视觉  2.语言识别   3.统计   4.数据挖掘   5. 非正式检索   6. 生物信息学。 

 

21.什么是遗传编程?

    遗传编程的机器学习中两种经常使用的方法之一。该模型是基于测试,并在一系列的
结果当中,获取最佳选择。

 

22.在机器学习中概括逻辑程序设计是指什么?

    概括逻辑程序设计(ILP)是利用逻辑程序设计表达的背景知识和实例,它是机器学习的一个分支。

 

23.在机器学习中,模型的选择是指?

    在不一样的数学模型中,选择用于描述相同的数据集的模型的过程被称为模型选择。
模型选择被应用于统计,机器学习和数据挖掘的等相关领域。 

 24.用于监督学习校准两种方法是什么?

在监督学习中,用于预测良好几率的两种方法是:

1,普拉特校准     2, 保序回归。 
这些方法被设计为二元分类,并且有意义的。 

 

25. 什么方法一般用于防止过拟合?

    当有足够的数据进行等渗回归时,这一般被用来防止过拟合问题。

 

26.规则学习的启发式方法和决策树的启发式方法之间的区别是什么?

    决策树的启发式方法评价的是一系列不相交的集合的平均质量;然而规则学习的
启发式方法仅仅评价在候选规则覆盖下的实例集。

 

27.什么是感知机器学习?

    在机器学习,感知器是一种输入到几个可能的非二进制输出的监督分类算法。

 

28.贝叶斯逻辑程序的两个组成部分是什么?

    贝叶斯逻辑程序由两部分组成。第一成分由一组贝叶斯条款组成,能捕捉特定
域的定性结构。第二组分是定量的,它能对域的量化信息进行编码。

 

29.什么是贝叶斯网络?

贝叶斯网络是用来表示一组变量之间为几率关系的图像模型。

 

30.为何基于实例的学习算法有时也被称为懒惰学习算法?

    基于实例的学习算法也被称为懒惰学习算法,由于它们延缓诱导或泛化过程,直到分类完成。

 

31.支持向量机能处理哪两种分类方法?

1.结合二分类法

2. 修改二进制归入多类学习法。

 

32.什么是集成学习?

    为了解决特定的计算程序,如分类器或专家知识等多种模式,进行战略性生产
和组合。这个过程被称为集成学习。

 

33.为何集成学习被应用?

    集成学习能提升模型的分类,预测,函数逼近等方面的精度。

 

34.什么使用集成学习?

    当你构建一个更准确,相互独立的分类器时,使用集成学习。

 

35.什么是集成方法的两种范式?

集成方法的两种范式是:

1. 连续集成方法
2. 并行集成方法。 

 

36.什么是集成方法的通常原则,在集成方法中套袋(bagging)和爆发(boosting)指的是什么?

    集成方法的通常原则是要结合定的学习算法多种预测模型,相对于单一模型,
其有更强的健壮性。套袋是一种能提升易变的预测或分类方案集成方法。爆发方
法被依次用来减小组合模型的误差。爆发和装袋均可以经过下降方差减小偏差。

 

37.什么是集成方法分类错误的偏置方差分解?

    学习算法的指望偏差能够分解为误差和方差。偏置项衡量由学习方法产生的平
均分类器与目标函数是否匹配。

 

38.在集成方法中什么是增量合成方法?

    增量学习方法是一种重新数据进行学习,并能应用于后续由现有的数据集生成的分类器的算法。

 

39.PCA,KPCA和ICE如何使用?

    PCA(主成分分析),KPCA(基于内核主成分分析)和ICA(独立成分分析)是用
于降维的重要特征提取技术。

 

40.在机器学习中降维是什么意思?

    在机器学习和统计应用中,降维是指在计算时减小随机变量数目的处理过程,并
且能够分为特征选择和特征提取。

 

41.什么是支持向量机?

    支持向量机是一种监督学习算法,适用于分类和回归分析。

 

42.关系评价技术的组成部分是什么?

    关系评价技术的重要组成部分以下:

    1.数据采集2. 地面实况采集3. 交叉验证技术4. 查询类型5. 评分标准6. 显着性检验。

 

43.连续监督学习有什么不一样方法?

    连续监督学习问题的不一样解决办法以下:

    1.滑动窗口方法
    2. 复发性推拉窗
    3. 隐藏马尔科夫模型
    4. 最大熵马尔科夫模型
    5. 条件随机域
    6. 图变换网络

 

44.在机器人技术和信息处理技术的哪些方面会相继出现预测问题?

    在机器人技术和信息处理技术中,相继出现预测问题的是:

    1.模仿学习    2. 结构预测    3. 基于模型的强化学习

 

45.什么是批量统计学习?

    统计学习技术容许根据一组观察到的数据进行学习功能和预测,这能够对没法观
察和未知的数据进行预测。这些技术提供的学习预测器对将来未知数据的预测提供性能保证。

 

46什么是PAC学习?

    可能近似正确模型 (PAC) 学习是一个已经被引入到分析学习算法和统计效率的学习框架。

 

47有哪些不一样的类别能够分为序列学习过程?

    1.序列预测    2. 序列生成    3. 序列识别    4. 顺序决定.

 

48什么是序列学习?

    序列学习是一种以合乎逻辑的方式进行教学和学习的方法。

 

49.机器学习的两种技术是什么?

    机器学习的两种技术是: 
    1.遗传编程
    2.概括学习

 

50.你在平常工做中看到的机器学习的一个流行应用是什么?

    各大电商网站上已部署好的推荐引擎使用的是机器学习。

 

https://max.book118.com/html/2018/0702/5114220014001301.shtm
相关文章
相关标签/搜索