2019-06-13 19:39:24 ——读书笔记1 ——机器学习三重门(监督学习,半监督学习,非监督学习)算法
1、监督学习:网络
监督学习基本上是“分类”的代名词,用训练数据集合学习获得一个模型,而后再使用这个模型对新样本进行预测。根据目标预测变量的类型不一样,监督学习大致可分为回归分析和分类学习。回归分析一般用最小二乘法求解,分类算法中比较著名的有K近邻,支持向量机,朴素贝叶斯分类器,决策树,BP 反向传播算法等。机器学习
以KNN为例,KNN属于惰性学习,它没有显式的训练过程,在训练阶段仅仅将样本保存起来 ,因此训练时间开销为零。待收到测试样本时,才开始处理。 与之相反的是,在训练阶段就“火急火燎”地从训练样本中建模型、调参数的学习方法,称为”急切学习“。给定某个待分类的测试样本,基于某种距离(如欧几里得距离),找到训练集合中与其最近的K个训练样本,而后基于这K个最近的“邻居” (K为正整数,一般较小),进行预测分类。函数
2、非监督学习学习
非监督学习本质上是”聚类“。若是说分类是指根据数据的特征或属性,分到已有的类当中, 那么,聚类一开始并不知道数据会分为几类,而是经过聚类分析将数据聚成几个群。比较有名的非监督学习算法有:均值聚类, 关联规则分析,主成分分析, 随机森林,受限玻尔兹曼机。目前,用在深度学习里,最有前景的无监督学习算法是 Ian Goodfellow 提出来的“生成对抗网络”。测试
以K均值聚类为例,聚类的关键是“类似”性度量,不一样的类似性标准会产生不一样的分类结果。如:一样是人,类似是按年龄仍是按性别划分就会有不一样的聚类结果。同一个聚类算法只能用一种数据表示,不然没法度量类似性。评估环节是聚类和分类最大的差别之处,分类有明确的外界标准,是猫是狗一目了然,而聚类的评估, 显得相对主观。K均值聚类的目的在于,给定K个指望的聚类个数和包括N个数据对象的数据集合,将其划分为知足距离方差最小的K个类。大数据
3、半监督学习——中庸之道人工智能
远离父母、走出校园后(少许监督学习),没有人告诉你对与错,一切都要基于本身早期已获取的知识,从社会中学习扩大并更新本身的认知体系(无监督学习),而后当遇到新事物时,咱们能泰然自若处理,而非魂飞魄散。半监督学习就是以“己知之认知(标签化的分类信息),扩大未知之领域(经过聚类思想将未知事物归类为己知事物)”。隐含了一个基本假设一一聚类假设,其核心要义就是 :类似的样本,拥有类似的输出。常见的半监督学习算法有生成式方法,半监督支持向量机,图半监督学习,半监督聚类等。半监督学习既用到了监督学习的先验知识,也吸纳了非监督学习的聚类思想, 两者兼顾。spa
4、强化学习设计
“强化学习”亦称“加强学习”,但它与监督学习和非监督学习有所不一样,强化学习强调在一系列的情景之下,选择最佳决策,它讲究经过多步恰当的决策,来逼近一个最忧的目标 所以,它是一种序列多步决策的问题。强化学习的设计灵感源于心理学中的行为主义理论,即有机体如何在环境给予的奖励或惩罚剌激下,逐步造成对剌激的预期,从而产生能得到最大利益的习惯性行为。简单地说就是”好孩子是表扬出来的“。强化学习也使用未标记的数据,它能够经过某种方法(奖惩函数)知道你是离正确答案愈来愈近,仍是愈来愈远。
5、关于人工智能的思考
机器学习的研究还分为三大流派:链接主义、行为主义和符号主义。
链接主义的主要表明形式是人工神经网络,它的处理对象是原始的数据,这部分研究包括深度学习的最新进展。
行为主义的表明形式就是强化学习方法,Alphago zero即为一个成功的例子,但其成功的规则并不能说明能够普遍适用于其余人工智能领域。其一是由于AlphaGo Zero 依靠规则明确的围棋,自动生成了大量的、 训练本身的数据 ,而人类的智能表现,大可能是在非明确规则下完成的,也无须大数据来训练本身的智能。举个例子:你一生能谈几回恋爱(屈指可数吧),家不是讲理(规则)的地方,谈恋爱也不是吧?其二是由于围棋属于一种彼此信息透明、方案可穷举的全信息博弈游戏 然而,人类的决策,大可能是在信息残缺处境下作出的。因此想把它的强化学习经验迁移到信息非完备的场景,还有很长的路要走。
符号主义的表明形式是专家系统和知识图谱。近来又有“老树发新芽”之势,特别是知识图谱,在智能搜索领域有着普遍的应用。
从三大流派处理的对象来看,有某种递进的关系:数据-->信息-->知识。做为小白的我呢,也不指望能给人工智能作出多大贡献,会用就行,若是你也是这条路上的小伙伴,那咱们一块儿加油吧。
注:以上文字借鉴书中内容,详细资料请参见正版图书《深度学习之美》张玉宏。