一文读懂机器学习,大数据/天然语言处理/算法全有了……

原文地址
http://www.open-open.com/lib/view/open1420615208000.html
http://www.cnblogs.com/subconscious/p/4107357.html

引论


在本篇文章中,我将对机器学习作个概要的介绍。本文的目的是能让即使全然不了解机器学习的人也能了解机器学习。并且上手相关的实践。这篇文档也算是 EasyPR开发的番外篇。从这里開始。必须对机器学习了解才干进一步介绍EasyPR的内核。固然,本文也面对通常读者。不会对阅读有相关的前提要求。html

在进入正题前。我想读者心中可能会有一个疑惑:机器学习有什么重要性,以致于要阅读完这篇很是长的文章呢?算法

我并不直接回答这个问题前。数据库

相反,我想请你们看两张图
下图是图一:
这里写图片描写叙述
图1 机器学习界的执牛耳者与互联网界的大鳄的联姻编程

这幅图上上的三人是当今机器学习界的执牛耳者。markdown


中间的是Geoffrey Hinton, 加拿大多伦多大学的教授。现在被聘为“Google大脑”的负责人。网络


右边的是Yann LeCun, 纽约大学教授,现在是Facebook人工智能实验室的主任。
而左边的你们都很是熟悉,Andrew Ng。中文名吴恩达,斯坦福大学副教授,现在也是“百度大脑”的负责人与百度首席科学家。架构

这三位都是眼下业界煊赫一时的大牛,被互联网界大鳄求贤若渴的聘 请,足见他们的重要性。而他们的研究方向,则所有都是机器学习的子类–深度学习。机器学习

下图是图二:
这里写图片描写叙述
图2 语音助手产品分布式

这幅图上描写叙述的是什么?Windows Phone上的语音助手Cortana,名字来源于《光环》中士官长的助手。相比其它竞争对手,微软很是迟才推出这个服务。Cortana背后的核心技术是 什么,为何它可以听懂人的语音?其实,这个技术正是机器学习。机器学习是所有语音助手产品(包括Apple的siri与Google的Now)可以跟人交互的关键技术。函数

经过上面两图,我相信你们可以看出机器学习彷佛是一个很是重要的,有很是多未知特性的技术。学习它彷佛是一件有趣的任务。实际上。学习机器学习不只可以帮助咱们了解互联网界最新的趋势,同一时候也可以知道伴随咱们的便利服务的实现技术。

机器学习是什么,为何它能有这么大的魔力,这些问题正是本文要回答的。

同一时候,本文叫作“从机器学习谈起”。所以会以漫谈的形式介绍跟机器学习相关的所有内容,包括学科(如数据挖掘、计算机视觉等),算法(神经网络,svm)等等。

一个故事说明什么是机器学习


机器学习这个词是让人疑惑的。首先它是英文名称Machine Learning(简称ML)的直译。在计算界Machine通常指计算机。

这个名字使用了拟人的手法。说明了这门技术是让机器“学习”的技术。但是计算机是死的,怎么可能像人类同样“学习”呢?

传统上假设咱们想让计算机工做,咱们给它一串指令,而后它遵守这个指令一步步运行下去。

有因有果,很是明白。但这种方式在机器学习中行不通。

机器学习根本不接受你输入的指令,相反,它接受你输入的数据! 也就是说,机器学习是一种让计算机利用数据而不是指令来进行各类工做的方法。这听起来很是难以想象,但结果上倒是很是可行的。“统计”思想将在你学习“机 器学习”相关理念时无时无刻不伴随,相关而不是因果的概念将是支撑机器学习可以工做的核心概念。你会颠覆对你曾经所有程序中创建的因果无处不在的根本理 念。

如下我经过一个故事来简单地阐明什么是机器学习。这个故事比較适合用在知乎上做为一个概念的阐明。在这里,这个故事没有展开。但相关内容与核心是存 在的。

假设你想简单的了解一下什么是机器学习,那么看完这个故事就足够了。

假设你想了解机器学习的不少其它知识以及与它关联紧密的当代技术,那么请你继续往下 看。后面有不少其它的丰富的内容。

这个样例来源于我真实的生活经验,我在思考这个问题的时候忽然发现它的过程可以被扩充化为一个完整的机器学习的过程,所以我决定使用这个样例做为所有介绍的開始。这个故事称为“等人问题”

我相信你们都有跟别人相约,而后等人的经历。现实中不是每个人都那么守时的,因而当你碰到一些爱迟到的人,你的时间不可避免的要浪费。

我就碰到过这种一个样例。

对个人一个朋友小Y而言,他就不是那么守时,最多见的表现是他经常迟到。当有一次我跟他约好3点钟在某个麦当劳见面时,在我出门的那一刻我忽然想到一个问题:我现在出发合适么?我会不会又到了地点后。花上30分钟去等他?我决定採取一个策略解决问题。

要想解决问题,有好几种方法。


第一种方法是採用知识:我搜寻可以解决问题的知识。但很是遗憾。没有人会把怎样等人这个问题做为知识传授,所以 我不可能找到已有的知识可以解决问题。
另一种方法是问他人:我去询问他人得到解决问题的能力。但是相同的,这个问题没有人可以解答,因为可能没人碰上跟我同样的状况。


第三种方法是准则法:我问本身的心里,我有否设立过什么准则去面对这个问题?好比,无论别人怎样,我都会守时到达。但我不是个死板的 人。我没有设立过这种规则。

其实,我相信有种方法比以上三种都合适。我把过往跟小Y相约的经历在脑海中重现一下,看看跟他相约的次数中,迟到占了多大的比例。而我利用这来预 測他此次迟到的可能性。假设这个值超出了我内心的某个界限,那我选择等一会再出发。

假设我跟小Y约过5次,他迟到的次数是1次,那么他按时到的比例为 80%,我心中的阈值为70%,我以为此次小Y应该不会迟到,所以我按时出门。假设小Y在5次迟到的次数中占了4次。也就是他按时到达的比例为20%,由 于这个值低于个人阈值。所以我选择推迟出门的时间。这种方法从它的利用层面来看,又称为经验法。在经验法的思考过程当中。我其实利用了以往所有相约的数 据。所以也可以称之为依据数据作的推断。

依据数据所作的推断跟机器学习的思想根本上是一致的。

刚才的思考过程我仅仅考虑“频次”这种属性。在真实的机器学习中,这可能都不算是一个应用。

通常的机器学习模型至少考虑两个量:一个是因变量,也就是 咱们但愿预測的结果,在这个样例里就是小Y迟到与否的推断。还有一个是自变量,也就是用来预測小Y是否迟到的量。

假设我把时间做为自变量,譬如我发现小Y所 有迟到的日子基本都是星期五,而在非星期五状况下他基本不迟到。因而我可以创建一个模型,来模拟小Y迟到与否跟日子是不是星期五的几率。
见下图:
这里写图片描写叙述
这种图就是一个最简单的机器学习模型。称之为决策树

当咱们考虑的自变量仅仅有一个时,状况较为简单。假设把咱们的自变量再添加一个。好比小Y迟到的部分状况时是在他开车过来的时候(你可以理解为他开车水平较臭,或者路较堵)。因而我可以关联考虑这些信息。创建一个更复杂的模型。这个模型包括两个自变量与一个因变量。

再更复杂一点,小Y的迟到跟天气也有必定的缘由,比例如如下雨的时候,这时候我需要考虑三个自变量。

假设我但愿可以预測小Y迟到的详细时间,我可以把他每次迟到的时间跟雨量的大小以及前面考虑的自变量统一创建一个模型。因而个人模型可以预測值,例 如他大概会迟到几分钟。

这样可以帮助我更好的规划我出门的时间。

在这种状况下,决策树就没法很是好地支撑了,因为决策树仅仅能预測离散值。

咱们可以用节2所 介绍的线型回归方法创建这个模型。

假设我把这些创建模型的过程交给电脑。

比方把所有的自变量和因变量输入。而后让计算机帮我生成一个模型,同一时候让计算机依据我当前的状况,给出我是否需要迟出门,需要迟几分钟的建议。

那么计算机运行这些辅助决策的过程就是机器学习的过程。

机器学习方法是计算机利用已有的数据(经验)。得出了某种模型(迟到的规律),并利用此模型预測将来(是否迟到)的一种方法。

经过上面的分析,可以看出机器学习与人类思考的经验过程是类似的,只是它能考虑不少其它的状况。运行更加复杂的计算。其实。机器学习的一个主要目的就 是把人类思考概括经验的过程转化为计算机经过对数据的处理计算得出模型的过程。通过计算机得出的模型可以以近似于人的方式解决很是多灵活复杂的问题。

如下,我会開始对机器学习的正式介绍。包括定义、范围。方法、应用等等,都有所包括。

机器学习的定义


从广义上来讲,机器学习是一种可以赋予机器学习的能力以此让它完毕直接编程没法完毕的功能的方法。但从实践的意义上来讲。机器学习是一种经过利用数据。训练出模型,而后使用模型预測的一种方法。

让咱们详细看一个样例。
这里写图片描写叙述
图4 房价的样例

拿国民话题的房子来讲。现在我手里有一栋房子需要售卖,我应该给它标上多大的价格?房子的面积是100平方米,价格是100万。120万。仍是140万?

很是显然,我但愿得到房价与面积的某种规律。

那么我该怎样得到这个规律?用报纸上的房价平均数据么?仍是參考别人面积类似的?无论哪一种,彷佛都并不是太靠谱。

我现在但愿得到一个合理的,并且可以最大程度的反映面积与房价关系的规律。因而我调查了周边与我房型类似的一些房子,得到一组数据。这组数据中包括了大大小小房子的面积与价格。假设我能从这组数据中找出面积与价格的规律,那么我就可以得出房子的价格。
对规律的寻找很是easy,拟合出一条直线,让它“穿过”所有的点,并且与各个点的距离尽量的小。

经过这条直线。我得到了一个可以最佳反映房价与面积规律的规律。这条直线同一时候也是一个下式所代表的函数:

房价 = 面积 * a + b

上述中的a、b都是直线的參数。得到这些參数之后。我就可以计算出房子的价格。

假设a = 0.75,b = 50,则房价 = 100 * 0.75 + 50 = 125万。这个结果与我前面所列的100万。120万,140万都不同。

因为这条直线综合考虑了大部分的状况,所以从“统计”意义上来讲,这是一个最合理的预測。

在求解过程当中透露出了两个信息:

1.房价模型是依据拟合的函数类型决定的。
假设是直线,那么拟合出的就是直线方程。假设是其它类型的线,好比抛物线,那么拟合出的就是抛物线方程。

机器学习有众多算法。一些强力算法可以拟合出复杂的非线性模型,用来反映一些不是直线所能表达的状况。

2.假设个人数据越多。个人模型就越可以考虑到越多的状况,由此对于新状况的预測效果可能就越好。
这是机器学习界“数据为王”思想的一个体现。通常来讲(不是绝对),数据越多。最后机器学习生成的模型预測的效果越好。

经过我拟合直线的过程,咱们可以对机器学习过程作一个完整的回想。

首先,咱们需要在计算机中存储历史的数据。接着,咱们将这些 数据经过机器学习算法进行处理,这个过程在机器学习中叫作“训练”,处理的结果可以被咱们用来对新的数据进行预測,这个结果通常称之为“模型”。对新数据 的预測过程在机器学习中叫作“预測”。“训练”与“预測”是机器学习的两个过程,“模型”则是过程的中间输出结果。“训练”产生“模型”,“模型”指导 “预測”。

让咱们把机器学习的过程与人类对历史经验概括的过程作个比对。
这里写图片描写叙述
图5 机器学习与人类思考的类比

人类在成长、生活过程当中积累了很是多的历史与经验。人类按期地对这些经验进行“概括”,得到了生活的“规律”。当人类遇到未知的问题或者需要对将来进行“猜測”的时候,人类使用这些“规律”。对未知问题与将来进行“猜測”,从而指导本身的生活和工做。

机器学习中的“训练”与“预測”过程可以相应到人类的“概括”和“猜測”过程。经过这种相应,咱们可以发现,机器学习的思想并不复杂。仅仅是对人 类在生活中学习成长的一个模拟。因为机器学习不是基于编程造成的结果。所以它的处理过程不是因果的逻辑,而是经过概括思想得出的相关性结论。

这也可以联想到人类为何要学习历史,历史其实是人类过往经验的总结。

有句话说得很是好。“历史每每不同。但历史老是惊人的类似”。

经过学习历 史。咱们从历史中概括出人生与国家的规律,从而指导咱们的下一步工做,这是具备莫大价值的。

当代一些人忽视了历史的原本价值,而是把其做为一种宣扬功绩的 手段,这实际上是对历史真实价值的一种误用。

机器学习的范围


上文虽说明了机器学习是什么,但是并无给出机器学习的范围。

其实,机器学习跟模式识别,统计学习。数据挖掘。计算机视觉,语音识别,天然语言处理等领域有着很是深的联系。

从范围上来讲。机器学习跟模式识别,统计学习。数据挖掘是类似的。同一时候,机器学习与其它领域的处理技术的结合。造成了计算机视觉、语音识别、天然语 言处理等交叉学科。所以,通常说数据挖掘时,可以等同于说机器学习。同一时候。咱们寻常所说的机器学习应用。应该是通用的,不只仅局限在结构化数据,还有图 像,音频等应用。

在这节对机器学习这些相关领域的介绍有助于咱们理清机器学习的应用场景与研究范围。更好的理解后面的算法与应用层次。

下图是机器学习所牵扯的一些相关范围的学科与研究领域。


这里写图片描写叙述

模式识别


模式识别=机器学习
二者的主要差异在于前者是从工业界发展起来的概念。后者则主要源自计算机学科。在著名的 《Pattern Recognition And Machine Learning》这本书中,Christopher M. Bishop在开头是这样说的“模式识别源自工业界,而机器学习来自于计算机学科。

只是,它们中的活动可以被视为同一个领域的两个方面,同一时候在过去的10 年间,它们都有了长足的发展”。

数据挖掘


数据挖掘=机器学习+数据库
这几年数据挖掘的概念实在是太耳熟能详。差点儿等同于炒做。

但凡说数据挖掘都会吹嘘 数据挖掘怎样怎样。好比从数据中挖出金子,以及将废弃的数据转化为价值等等。但是,我虽然可能会挖出金子。但我也可能挖的是“石头”啊。

这个说法的意思 是。数据挖掘仅仅是一种思考方式。告诉咱们应该尝试从数据中挖掘出知识。但不是每个数据都能挖掘出金子的,因此不要神话它。一个系统绝对不会因为上了一个 数据挖掘模块就变得无所不能(这是IBM最喜欢吹嘘的)。偏偏相反,一个拥有数据挖掘思惟的人员才是关键。并且他还必须对数据有深入的认识,这样才可能从 数据中导出模式指引业务的改善。大部分数据挖掘中的算法是机器学习的算法在数据库中的优化。

统计学习


统计学习近似等于机器学习
统计学习是个与机器学习高度重叠的学科。因为机器学习中的大多数方法来自统计学,甚 至可以以为。统计学的发展促进机器学习的繁荣昌盛。好比著名的支持向量机算法,就是源自统计学科。但是在某种程度上二者是有分别的,这个分别在于:统计学 习者重点关注的是统计模型的发展与优化,偏数学,而机器学习者更关注的是可以解决问题,偏实践,所以机器学习研究者会重点研究学习算法在计算机上运行的效 率与准确性的提高。

计算机视觉


计算机视觉=图像处理+机器学习
图像处理技术用于将图像处理为适合进入机器学习模型中的输入,机器学习则负责 从图像中识别出相关的模式。

计算机视觉相关的应用很是的多。好比百度识图、手写字符识别、车牌识别等等应用。这个领域是应用前景很是火热的。同一时候也是研究 的热门方向。随着机器学习的新领域深度学习的发展,大大促进了计算机图像识别的效果。所以将来计算机视觉界的发展前景不可估量。

语音识别


语音识别=语音处理+机器学习
语音识别就是音频处理技术与机器学习的结合。语音识别技术通常不会单独使用,一般会结合天然语言处理的相关技术。眼下的相关应用有苹果的语音助手siri等。

天然语言处理


天然语言处理=文本处理+机器学习
天然语言处理技术主要是让机器理解人类的语言的一门领域。

在天然语言处理技 术中,大量使用了编译原理相关的技术,好比词法分析,语法分析等等,除此以外,在理解这个层面,则使用了语义理解,机器学习等技术。做为惟一由人类自身创 造的符号,天然语言处理一直是机器学习界不断研究的方向。依照百度机器学习专家余凯的说法“听与看,说白了就是阿猫和阿狗都会的。而仅仅有语言才是人类独有 的”。怎样利用机器学习技术进行天然语言的的深度理解。一直是工业和学术界关注的焦点。

可以看出机器学习在众多领域的外延和应用。机器学习技术的发展促使了很是多智能领域的进步,改善着咱们的生活。

机器学习的方法


经过上节的介绍咱们知晓了机器学习的大体范围,那么机器学习里面到底有多少经典的算法呢?在这个部分我会简要介绍一下机器学习中的经典表明方法。这部分介绍的重点是这些方法内涵的思想。数学与实践细节不会在这讨论。

回归算法


在大部分机器学习课程中。回归算法都是介绍的第一个算法。
缘由有两个:
一.回归算法比較简单。介绍它可以让人平滑地从统计学迁移到机器学习中。
二. 回归算法是后面若干强大算法的基石。假设不理解回归算法。没法学习那些强大的算法。回归算法有两个重要的子类:即线性回归和逻辑回归。

线性回归就是咱们前面说过的房价求解问题。怎样拟合出一条直线最佳匹配我所有的数据?通常使用“最小二乘法”来求解。

“最小二乘法”的思想是这样 的,假设咱们拟合出的直线表明数据的真实值。而观測到的数据表明拥有偏差的值。为了尽量减少偏差的影响,需要求解一条直线使所有偏差的平方和最小。最小 二乘法将最优问题转化为求函数极值问题。函数极值在数学上咱们一般会採用求导数为0的方法。

但这种作法并不适合计算机,可能求解不出来。也可能计算量太 大。

计算机科学界专门有一个学科叫“数值计算”,专门用来提高计算机进行各种计算时的准确性和效率问题。

好比,著名的“梯度降低”以及“牛顿法”就是数 值计算中的经典算法。也很是适合来处理求解函数极值的问题。梯度降低法是解决回归模型中最简单且有效的方法之中的一个。

从严格意义上来讲,因为后文中的神经网络 和推荐算法中都有线性回归的因子,所以梯度降低法在后面的算法实现中也有应用。

逻辑回归是一种与线性回归很是类似的算法。但是。从本质上讲,线型回归处理的问题类型与逻辑回归不一致。线性回归处理的是数值问题,也就是最后预測 出的结果是数字。好比房价。而逻辑回归属于分类算法,也就是说,逻辑回归预測结果是离散的分类。好比推断这封邮件是不是垃圾邮件,以及用户是否会点击此广 告等等。

实现方面的话。逻辑回归仅仅是对对线性回归的计算结果加上了一个Sigmoid函数,将数值结果转化为了0到1之间的几率(Sigmoid函数的图像 通常来讲并不直观,你仅仅需要理解对数值越大,函数越逼近1,数值越小。函数越逼近0),接着咱们依据这个几率可以作预測,好比几率大于0.5,则这封邮件 就是垃圾邮件,或者肿瘤是不是恶性的等等。

从直观上来讲,逻辑回归是画出了一条分类线
见下图
这里写图片描写叙述
图7 逻辑回归的直观解释
假设咱们有一组肿瘤患者的数据,这些患者的肿瘤中有些是良性的(图中的蓝色点)。有些是恶性的(图中的红色点)。这里肿瘤的红蓝色可以被称做数据的 “标签”。

同一时候每个数据包括两个“特征”:患者的年龄与肿瘤的大小。咱们将这两个特征与标签映射到这个二维空间上。造成了我上图的数据。

当我有一个绿色的点时,我该推断这个肿瘤是恶性的仍是良性的呢?依据红蓝点咱们训练出了一个逻辑回归模型。也就是图中的分类线。这时,依据绿点出现在分类线的左側,所以咱们推断它的标签应该是红色,也就是说属于恶性肿瘤。

逻辑回归算法划出的分类线基本都是线性的(也有划出非线性分类线的逻辑回归,只是那样的模型在处理数据量较大的时候效率会很是低)。这意味着当两类之 间的界线不是线性时。逻辑回归的表达能力就不足。

如下的两个算法是机器学习界最强大且重要的算法。都可以拟合出非线性的分类线。

神经网络


神经网络(也称之为人工神经网络。ANN)算法是80年代机器学习界很是流行的算法,只是在90年代中途衰落。现在。携着“深度学习”之势。神经网络重装归来。又一次成为最强大的机器学习算法之中的一个。

神经网络的诞生起源于对大脑工做机理的研究。

早期生物界学者们使用神经网络来模拟大脑。机器学习的学者们使用神经网络进行机器学习的实验。发现在视 觉与语音的识别上效果都至关好。在BP算法(加速神经网络训练过程的数值算法)诞生之后,神经网络的发展进入了一个热潮。BP算法的发明人之中的一个是前面介绍 的机器学习大牛Geoffrey Hinton(图1中的中间者)。

详细说来,神经网络的学习机理是什么?简单来讲,就是分解与整合。在著名的Hubel-Wiesel试验中,学者们研究猫的视觉分析机理是这种。
这里写图片描写叙述
图8 Hubel-Wiesel试验与大脑视觉机理
比方说。一个正方形,分解为四个折线进入视觉处理的下一层中。四个神经元分别处理一个折线。每个折线再继续被分解为两条直线。每条直线再被分解为黑 白两个面。因而,一个复杂的图像变成了大量的细节进入神经元,神经元处理之后再进行整合,最后得出了看到的是正方形的结论。

这就是大脑视觉识别的机理,也 是神经网络工做的机理。

让咱们看一个简单的神经网络的逻辑架构。在这个网络中。分红输入层,隐藏层,和输出层。

输入层负责接收信号。隐藏层负责对数据的分解与处理,最后的 结果被整合到输出层。

每层中的一个圆表明一个处理单元。可以以为是模拟了一个神经元,若干个处理单元组成了一个层,若干个层再组成了一个网络。也就是”神 经网络”。
这里写图片描写叙述
图9 神经网络的逻辑架构
在神经网络中,每个处理单元其实就是一个逻辑回归模型。逻辑回归模型接收上层的输入,把模型的预測结果做为输出传输到下一个层次。经过这种过程。神经网络可以完毕很是复杂的非线性分类。

下图会演示神经网络在图像识别领域的一个著名应用。这个程序叫作LeNet。是一个基于多个隐层构建的神经网络。

经过LeNet可以识别多种手写数字,并且达到很是高的识别精度与拥有较好的鲁棒性。
这里写图片描写叙述
图10 LeNet的效果展现
右下方的方形中显示的是输入计算机的图像。方形上方的红色字样“answer”后面显示的是计算机的输出。

左边的三条竖直的图像列显示的是神经网络 中三个隐藏层的输出,可以看出。随着层次的不断深刻。越深的层次处理的细节越低。好比层3基本处理的都已是线的细节了。

LeNet的发明人就是前文介绍 过的机器学习的大牛Yann LeCun(图1右者)。

进入90年代,神经网络的发展进入了一个瓶颈期。其主要缘由是虽然有BP算法的加速,神经网络的训练过程仍然很是困难。

所以90年代后期支持向量机(SVM)算法代替了神经网络的地位。

SVM(支持向量机)


支持向量机算法是诞生于统计学习界,同一时候在机器学习界大放光彩的经典算法。

支持向量机算法从某种意义上来讲是逻辑回归算法的强化:经过给予逻辑回归算法更严格的优化条件,支持向量机算法可以得到比逻辑回归更好的分类界线。但是假设没有某类函数技术,则支持向量机算法最多算是一种更好的线性分类技术。

但是,经过跟高斯“核”的结合,支持向量机可以表达出很是复杂的分类界线,从而达成很是好的的分类效果。

“核”其实就是一种特殊的函数,最典型的特征就是可以将低维的空间映射到高维的空间。
比例如如下图所看到的:
这里写图片描写叙述
图11 支持向量机图例

咱们怎样在二维平面划分出一个圆形的分类界线?在二维平面可能会很是困难。但是经过“核”可以将二维空间映射到三维空间,而后使用一个线性平面就可以 达成类似效果。也就是说。二维平面划分出的非线性分类界线可以等价于三维平面的线性分类界线。因而。咱们可以经过在三维空间中进行简单的线性划分就可以达 到在二维平面中的非线性划分效果。
这里写图片描写叙述
图12 三维空间的分割
支持向量机是一种数学成分很是浓的机器学习算法(相对的,神经网络则有生物科学成分)。在算法的核心步骤中。有一步证实,即将数据从低维映射到高维不 会带来最后计算复杂性的提高。因而,经过支持向量机算法,既可以保持计算效率,又可以得到很是好的分类效果。所以支持向量机在90年代后期一直占领着机器 学习中最核心的地位,基本代替了神经网络算法。直到现在神经网络借着深度学习又一次兴起。二者之间才又发生了微妙的平衡转变。

聚类算法


前面的算法中的一个显著特征就是个人训练数据中包括了标签,训练出的模型可以对其它未知数据预測标签。在如下的算法中。训练数据都是不含标签的,而 算法的目的则是经过训练。猜測出这些数据的标签。

这类算法有一个统称,即无监督算法(前面有标签的数据的算法则是有监督算法)。

无监督算法中最典型的表明 就是聚类算法。

让咱们仍是拿一个二维的数据来讲,某一个数据包括两个特征。我但愿经过聚类算法。给他们中不一样的种类打上标签,我该怎么作呢?简单来讲。聚类算法就是计算种群中的距离。依据距离的远近将数据划分为多个族群。

聚类算法中最典型的表明就是K-Means算法。

降维算法


降维算法也是一种无监督学习算法,其主要特征是将数据从高维下降到低维层次。在这里,维度其实表示的是数据的特征量的大小,好比,房价包括房子的 长、宽、面积与房间数量四个特征。也就是维度为4维的数据。可以看出来。长与宽其实与面积表示的信息重叠了,好比面积=长 × 宽。经过降维算法咱们就可以去除冗余信息,将特征下降为面积与房间数量两个特征,即从4维的数据压缩到2维。

因而咱们将数据从高维下降到低维,不只利于表 示。同一时候在计算上也能带来加速。

刚才说的降维过程当中下降的维度属于肉眼可视的层次。同一时候压缩也不会带来信息的损失(因为信息冗余了)。

假设肉眼不可视,或者没有冗余的特征。降维算 法也能工做。只是这样会带来一些信息的损失。但是,降维算法可以从数学上证实。从高维压缩到的低维中最大程度地保留了数据的信息。所以。使用降维算法仍然 有很是多的优势。

降维算法的主要做用是压缩数据与提高机器学习其它算法的效率。经过降维算法。可以将具备几千个特征的数据压缩至若干个特征。另外。降维算法的还有一个 优势是数据的可视化,好比将5维的数据压缩至2维。而后可以用二维平面来可视。降维算法的主要表明是PCA算法(即主成分分析算法)。

推荐算法


推荐算法是眼下业界很是火的一种算法,在电商界,如亚马逊,天猫,京东等获得了普遍的运用。推荐算法的主要特征就是可以本身主动向用户推荐他们最感兴趣的东西,从而添加购买率,提高效益。推荐算法有两个基本的类别:

一类是基于物品内容的推荐,是将与用户购买的内容近似的物品推荐给用户。这种前提是每个物品都得有若干个标签,所以才干够找出与用户购买物品类似的物品,这样推荐的优势是关联程度较大,但是因为每个物品都需要贴标签。所以工做量较大。

还有一类是基于用户类似度的推荐。则是将与目标用户兴趣相同的其它用户购买的东西推荐给目标用户,好比小A历史上买了物品B和C,通过算法分析。发现还有一个与小A近似的用户小D购买了物品E,因而将物品E推荐给小A。

两类推荐都有各自的优缺点,在通常的电商应用中,一般是两类混合使用。

推荐算法中最有名的算法就是协同过滤算法。

其它


除了以上算法以外,机器学习界还有其它的如高斯判别。朴素贝叶斯。决策树等等算法。但是上面列的六个算法是使用最多,影响最广。种类最全的典型。

机器学习界的一个特点就是算法众多,发展百花齐放。

如下作一个总结。依照训练的数据有无标签,可以将上面算法分为监督学习算法和无监督学习算法,但推荐算法较为特殊,既不属于监督学习,也不属于非监督学习,是单独的一类。

监督学习算法:线性回归,逻辑回归。神经网络,SVM

无监督学习算法:聚类算法。降维算法

特殊算法:推荐算法

除了这些算法之外,有一些算法的名字在机器学习领域中也经常出现。但他们自己并不算是一个机器学习算法,而是为了解决某个子问题而诞生的。你可以理 解他们为以上算法的子算法,用于大幅度提升训练过程。

当中的表明有:梯度降低法。主要运用在线型回归。逻辑回归。神经网络,推荐算法中;牛顿法。主要运用 在线型回归中。BP算法。主要运用在神经网络中。SMO算法,主要运用在SVM中。

机器学习的应用–大数据


说完机器学习的方法,如下要谈一谈机器学习的应用了。

无疑,在2010年曾经,机器学习的应用在某些特定领域发挥了巨大的做用,如车牌识别,网络攻 击防范,手写字符识别等等。但是。从2010年之后,随着大数据概念的兴起,机器学习大量的应用都与大数据高度耦合。差点儿可以以为大数据是机器学习应用的 最佳场景。

譬如,但凡你能找到的介绍大数据魔力的文章。都会说大数据怎样准确准确预測到了某些事。

好比经典的Google利用大数据预測了H1N1在美国某小镇的爆发。
这里写图片描写叙述
图13 Google成功预測H1N1
百度预測2014年世界杯。从淘汰赛到决赛所有预測正确。


这里写图片描写叙述
图14 百度世界杯成功预測了所有比赛结果

这些实在太奇妙了。那么究竟是什么缘由致使大数据具备这些魔力的呢?简单来讲,就是机器学习技术。正是基于机器学习技术的应用,数据才干发挥其魔力。

大数据的核心是利用数据的价值,机器学习是利用数据价值的关键技术,对于大数据而言,机器学习是不可或缺的。相反。对于机器学习而言。越多的数据会 越 可能提高模型的精确性,同一时候,复杂的机器学习算法的计算时间也迫切需要分布式计算与内存计算这种关键技术。所以,机器学习的兴旺也离不开大数据的帮助。

大数据与机器学习二者是互相促进,相依相存的关系。

机器学习与大数据紧密联系。

但是,必须清醒的认识到。大数据并不等同于机器学习,同理。机器学习也不等同于大数据。大数据中包括有分布式计算,内存数据库,多维分析等等多种技术。单从分析方法来看,大数据也包括如下四种分析方法:

1.大数据,小分析:即数据仓库领域的OLAP分析思路。也就是多维分析思想。
2.大数据。大分析:这个表明的就是数据挖掘与机器学习分析法。


3.流式分析:这个主要指的是事件驱动架构。


4.查询分析:经典表明是NoSQL数据库。

也就是说,机器学习仅仅是大数据分析中的一种而已。虽然机器学习的一些结果具备很是大的魔力。在某种场合下是大数据价值最好的说明。

但这并不表明机器学习是大数据下的惟一的分析方法。

机器学习与大数据的结合产生了巨大的价值。基于机器学习技术的发展。数据可以“预測”。对人类而言,积累的经验越丰富,阅历也普遍,对将来的推断越 准确。好比常说的“经验丰富”的人比“初出茅庐”的小伙子更有工做上的优点,就在于经验丰富的人得到的规律比他人更准确。

而在机器学习领域。依据著名的一 个实验。有效的证明了机器学习界一个理论:即机器学习模型的数据越多,机器学习的预測的效率就越好。

见下图:
这里写图片描写叙述
这里写图片描写叙述
图15 机器学习准确率与数据的关系

经过这张图可以看出,各类不一样算法在输入的数据量达到必定级数后,都有相近的高精确度。因而诞生了机器学习界的名言:成功的机器学习应用不是拥有最好的算法,而是拥有最多的数据。

在大数据的时代。有好多优点促使机器学习可以应用更普遍。

好比随着物联网和移动设备的发展。咱们拥有的数据愈来愈多,种类也包括图片、文本、视频等 非结构化数据,这使得机器学习模型可以得到愈来愈多的数据。

同一时候大数据技术中的分布式计算Map-Reduce使得机器学习的速度愈来愈快,可以更方便的 使用。种种优点使得在大数据时代,机器学习的优点可以获得最佳的发挥。

机器学习的子类–深度学习


近来,机器学习的发展产生了一个新的方向,即“深度学习”。

虽然深度学习这四字听起来颇为高大上。但其理念却很是easy,就是传统的神经网络发展到了多隐藏层的状况。

在上文介绍过,自从90年代之后,神经网络已经消寂了一段时间。但是BP算法的发明人Geoffrey Hinton一直没有放弃对神经网络的研究。因为神经网络在隐藏层扩大到两个以上。其训练速度就会很是慢,所以有用性一直低于支持向量机。

2006 年,Geoffrey Hinton在科学杂志《Science》上发表了一篇文章,论证了两个观点:

1.多隐层的神经网络具备优异的特征学习能力,学习获得的特征对数据有更本质的刻画。从而有利于可视化或分类。

2.深度神经网络在训练上的难度,可以经过“逐层初始化” 来有效克服
这里写图片描写叙述
经过这种发现,不只攻克了神经网络在计算上的难度,同一时候也说明了深层神经网络在学习上的优异性。今后,神经网络又一次成为了机器学习界中的主流强大学习技术。同一时候。具备多个隐藏层的神经网络被称为深度神经网络。基于深度神经网络的学习研究称之为深度学习。

因为深度学习的重要性质,在各方面都取得极大的关注,依照时间轴排序,有如下四个标志性事件值得一说:

2012年6月。《纽约时报》披露了Google Brain项目。这个项目是由Andrew Ng和Map-Reduce发明人Jeff Dean共同主导。用16000个CPU Core的并行计算平台训练一种称为“深层神经网络”的机器学习模型。在语音识别和图像识别等领域得到了巨大的成功。Andrew Ng就是文章開始所介绍的机器学习的大牛(图1中右者)。

2012年11月,微软在中国天津的一次活动上公开演示了一个全本身主动的同声传译系统,讲演者用英文演讲。后台的计算机一鼓作气本身主动完毕语音识别、英中机器翻译。以及中文语音合成。效果很是流畅,当中支撑的关键技术是深度学习; 2013年1月。在百度的年会上。创始人兼CEO李彦宏高调宣布要成立百度研究院,当中第一个重点方向就是深度学习,并为此而成立深度学习研究院(IDL)。

这里写图片描写叙述
图17 深度学习的发展热潮

文章开头所列的三位机器学习的大牛,不只都是机器学习界的专家,更是深度学习研究领域的先驱。所以,使他们担任各个大型互联网公司技术掌舵者的缘由不只在于他们的技术实力,更在于他们研究的领域是前景无限的深度学习技术。

眼下业界不少的图像识别技术与语音识别技术的进步都源于深度学习的发展。除了本文开头所提的Cortana等语音助手,还包括一些图像识别应用。当中典型的表明就是下图的百度识图功能。
这里写图片描写叙述
图18 百度识图

深度学习属于机器学习的子类。基于深度学习的发展极大的促进了机器学习的地位提升。更进一步地,推进了业界对机器学习父类人工智能梦想的再次重视。

机器学习的父类–人工智能


人工智能是机器学习的父类。深度学习则是机器学习的子类。

假设把三者的关系用图来代表的话,则是下图:
这里写图片描写叙述
图19 深度学习、机器学习、人工智能三者关系

毫无疑问,人工智能(AI)是人类所能想象的科技界最突破性的发明了,某种意义上来讲。人工智能就像游戏最终幻想的名字同样,是人类对于科技界的最 终梦想。从50年代提出人工智能的理念之后,科技界,产业界不断在探索,研究。这段时间各类小说、电影都在以各类方式展示对于人工智能的想象。人类可以发 明类似于人类的机器,这是多么伟大的一种理念。但其实。自从50年代之后,人工智能的发展就磕磕碰碰。未有见到足够震撼的科学技术的进步。

总结起来。人工智能的发展经历了例如如下若干阶段,从早期的逻辑推理,到中期的专家系统。这些科研进步确实使咱们离机器的智能有点接近了,但还有一大段 距离。直到机器学习诞生之后。人工智能界感受最终找对了方向。

基于机器学习的图像识别和语音识别在某些垂直领域达到了跟人相媲美的程度。机器学习令人类第 一次如此接近人工智能的梦想。

其实,假设咱们把人工智能相关的技术以及其它业界的技术作一个类比。就可以发现机器学习在人工智能中的重要地位不是没有理由的。

人类差异于其它物体。植物,动物的最主要差异,做者以为是“智慧”。而智慧的最佳体现是什么?

是计算能力么,应该不是。心算速度快的人咱们通常称之为天才。
是反应能力么,也不是,反应快的人咱们称之为灵敏。
是记忆能力么,也不是,记忆好的人咱们通常称之为过目不忘。


是推理能力么。这种人我或许会称他智力很是高,类似“福尔摩斯”,但不会称他拥有智慧。
是知识能力么,这种人咱们称之为博闻广,也不会称他拥有智慧。

想一想看咱们通常形容谁有大智慧?圣人,诸如庄子,老子等。智慧是对生活的感悟。是对人生的积淀与思考,这与咱们机器学习的思想何其类似?经过经验获取规律,指导人生与将来。

没有经验就没有智慧。
这里写图片描写叙述
图20 机器学习与智慧

那么,从计算机来看,以上的种种能力都有种种技术去应对。

好比计算能力咱们有分布式计算。反应能力咱们有事件驱动架构,检索能力咱们有搜索引擎,知识存储能力咱们有数据仓库,逻辑推理能力咱们有专家系统,但是,惟有相应智慧中最显著特征的概括与感悟能力。仅仅有机器学习与之相应。这也是机器学习能力最能表征智慧的根本缘由。

让咱们再看一下机器人的制造,在咱们具备了强大的计算,海量的存储,高速的检索。迅速的反应,优秀的逻辑推理后咱们假设再配合上一个强大的智慧大脑,一个真正意义上的人工智能或许就会诞生,这也是为何说在机器学习高速发展的现在,人工智能可能再也不是梦想的缘由。

人工智能的发展可能不只取决于机器学习。更取决于前面所介绍的深度学习,深度学习技术因为深度模拟了人类大脑的构成,在视觉识别与语音识别上显著性 的突破了原有机器学习技术的界限,所以极有多是真正实现人工智能梦想的关键技术。无论是谷歌大脑仍是百度大脑,都是经过海量层次的深度学习网络所构成 的。

或许借助于深度学习技术,在不远的未来,一个具备人类智能的计算机真的有可能实现。

最后再说一下题外话。因为人工智能借助于深度学习技术的高速发展。已经在某些地方引发了传统技术界达人的担心。真实世界的“钢铁侠”。特斯拉CEO 马斯克就是当中之中的一个。

近期马斯克在參加MIT讨论会时。就表达了对于人工智能的担心。“人工智能的研究就类似于召唤恶魔。咱们必须在某些地方增强注意。”

图21 马斯克与人工智能
图21 马斯克与人工智能

虽然马斯克的操心有些危言耸听。但是马斯克的推理不无道理。

“假设人工智能想要消除垃圾邮件的话。可能它最后的决定就是消灭人类。”马斯克以为预防 此类现象的方法是引入政府的监管。在这里做者的观点与马斯克类似,在人工智能诞生之初就给其加上若干规则限制可能有效,也就是不该该使用单纯的机器学习, 而应该是机器学习与规则引擎等系统的综合可以较好的解决这类问题。因为假设学习没有限制,极有可能进入某个误区,必需要加上某些引导。正如人类社会中,法 律就是一个最好的规则,杀人者死就是对于人类在探索提升生产力时不可逾越的界限。

在这里,必须提一下这里的规则与机器学习引出的规律的不一样,规律不是一个严格意义的准则,其表明的不少其它是几率上的指导。而规则则是神圣不可侵犯,不可改动的。规律可以调整。但规则是不能改变的。有效的结合规律与规则的特色,可以引导出一个合理的。可控的学习型人工智能。

机器学习的思考–计算机的潜意识


最后。做者想谈一谈关于机器学习的一些思考。

主要是做者在平常生活总结出来的一些感悟。

回想一下我在节1里所说的故事。我把小Y过往跟我相约的经历作了一个罗列。但是这种罗列以往所有经历的方法仅仅有少数人会这么作。大部分的人採用的是 更直接的方法,即利用直觉。那么,直觉是什么?其实直觉也是你在潜意识状态下思考经验后得出的规律。就像你经过机器学习算法。获得了一个模型,那么你下次 仅仅要直接使用便可了。那么这个规律你是何时思考的?多是在你无心识的状况下,好比睡觉,走路等状况。这种时候,大脑其实也在默默地作一些你察觉不到 的工做。

这种直觉与潜意识,我把它与还有一种人类思考经验的方式作了区分。

假设一我的勤于思考,好比他会天天作一个小结,譬如“吾日三省吾身”。或者他经常与 同伴讨论近期工做的得失,那么他这种训练模型的方式是直接的,明意识的思考与概括。这种效果很是好。记忆性强。并且更能得出有效反应现实的规律。但是大部 分的人可能很是少作这种总结。那么他们得出生活中规律的方法使用的就是潜意识法。

举一个做者本人关于潜意识的样例。做者本人曾经没开过车,近期一段时间买了车后,每天开车上班。

我天天都走固定的路线。有趣的是。在一開始的几天, 我很是紧张的注意着前方的路况,而现在我已经在无心识中就把车开到了目标。这个过程当中个人眼睛是注视着前方的。个人大脑是没有思考,但是我手握着的方向盘 会本身主动的调整方向。也就是说。随着我开车次数的增多,我已经把我开车的动做交给了潜意识。这是很是有趣的一件事。在这段过程当中,个人大脑将前方路况的图像 记录了下来,同一时候大脑也记忆了我转动方向盘的动做。通过大脑本身的潜意识思考,最后生成的潜意识可以直接依据前方的图像调整我手的动做。

假设咱们将前方的 录像交给计算机,而后让计算机记录与图像相应的驾驶员的动做。

通过一段时间的学习,计算机生成的机器学习模型就可以进行本身主动驾驶了。这很是奇妙,不是么。其 实包括Google、特斯拉在内的本身主动驾驶汽车技术的原理就是这样。

除了本身主动驾驶汽车之外,潜意识的思想还可以扩展到人的交际。

譬如说服别人。一个最佳的方法就是给他展现一些信息,而后让他本身去概括得出咱们想要的 结论。这就比如在阐述一个观点时,用一个事实,或者一个故事,比大段的道理要好很是多。从古到今。但凡优秀的说客,无不採用的是这种方法。

春秋战国时期。各 国合纵连横,经常有各类说客去跟一国之君交流,直接告诉君主该作什么,无异于自寻死路,但是跟君主讲故事,经过这些故事让君主恍然大悟。就是一种正确的过 程。

这里面有不少杰出的表明,如墨子,苏秦等等。

基本上所有的交流过程,使用故事说明的效果都要远胜于阐述道义之类的效果好很是多。为何用故事的方法比道理或者其它的方法好很是多,这是因为在人成长 的过程,通过本身的思考,已经造成了很是多规律与潜意识。假设你告诉的规律与对方的不相符,很是有可能出于保护。他们会本能的拒绝你的新规律,但是假设你跟他 讲一个故事,传递一些信息,输送一些数据给他,他会思考并自我改变。

他的思考过程实际上就是机器学习的过程,他把新的数据归入到他的旧有的记忆与数据中。 通过又一次训练。

假设你给出的数据的信息量很是大,大到调整了他的模型,那么他就会依照你但愿的规律去作事。有的时候,他会本能的拒绝运行这个思考过程。但 是数据一旦输入。无论他但愿与否。他的大脑都会在潜意识状态下思考,并且可能改变他的见解。

假设计算机也拥有潜意识(正如本博客的名称同样)。那么会怎么样?譬如让计算机在工做的过程当中。逐渐产生了自身的潜意识。因而甚至可以在你不需要告诉它作什么时它就会完毕那件事。这是个很是有意思的设想,这里留给各位读者去发散思考吧。

总结


本文首先介绍了互联网界与机器学习大牛结合的趋势,以及使用机器学习的相关应用。接着以一个“等人故事”展开对机器学习的介绍。介绍中首先是机器学 习的概念与定义。而后是机器学习的相关学科,机器学习中包括的各种学习算法。接着介绍机器学习与大数据的关系。机器学习的新子类深度学习,最后探讨了一下 机器学习与人工智能发展的联系以及机器学习与潜意识的关联。

通过本文的介绍,相信你们对机器学习技术有必定的了解,好比机器学习是什么,它的内核思想是什 么(即统计和概括),经过了解机器学习与人类思考的近似联系可以知晓机器学习为何具备智慧能力的缘由等等。

其次。本文漫谈了机器学习与外延学科的关系, 机器学习与大数据相互促进相得益彰的联系,机器学习界最新的深度学习的迅猛发展,以及对于人类基于机器学习开发智能机器人的一种展望与思考,最后做者简单 谈了一点关于让计算机拥有潜意识的设想。

机器学习是眼下业界最为Amazing与火热的一项技术,从网上的每一次淘宝的购买东西,到本身主动驾驶汽车技术,以及网络攻击抵御系统等等。都有机器 学习的因子在内,同一时候机器学习也是最有可能令人类完毕AI dream的一项技术,各类人工智能眼下的应用,如微软小冰聊天机器人,到计算机视觉技术的进步。都有机器学习努力的成分。做为一名当代的计算机领域的开 发或管理人员,以及身处这个世界。使用者IT技术带来便利的人们,最好都应该了解一些机器学习的相关知识与概念。因为这可以帮你更好的理解为你带来莫大便 利技术的背后原理,以及让你更好的理解当代科技的进程。

后记


这篇文档花了做者两个月的时间。最终在2014年的最后一天的前一天基本完毕。经过这篇文章。做者但愿对机器学习在国内的普及作一点贡献,同一时候也是 做者本人本身对于所学机器学习知识的一个融汇贯通,整体概括的提升过程。做者把这么多的知识通过本身的大脑思考。训练出了一个模型。造成了这篇文档。可以 说这也是一种机器学习的过程吧(笑)。

做者所在的行业会接触到大量的数据,所以对于数据的处理和分析是寻常很是重要的工做,机器学习课程的思想和理念对于做者平常的工做指引做用极大,几 乎致使了做者对于数据价值的又一次认识。想一想半年前,做者还对机器学习似懂非懂。现在也可以算是一个机器学习的Expert了(笑)。但做者始终以为,机器 学习的真正应用不是经过概念或者思想的方式。而是经过实践。仅仅有当把机器学习技术真正应用时,才可算是对机器学习的理解进入了一个层次。正所谓再“阳春白 雪”的技术,也必须落到“下里巴人”的场景下运用。眼下有一种风气,国内外研究机器学习的某些学者。有一种高贵的逼格。以为本身的研究是普通人没法理解 的,但是这种理念是根本错误的。没有在真正实际的地方发挥做用,凭什么证实你的研究有所价值呢?做者以为必须将高大上的技术用在改变普通人的生活上,才 能发挥其根本的价值。

一些简单的场景,偏偏是实践机器学习技术的最好地方。

推荐几个机器学习算法及应用领域相关的中国大牛


李航


李航:http://research.microsoft.com/en-us/people/hangli/

是MSRA Web Search and Mining Group高级研究员和主管,主要研究领域是信息检索,天然语言处理和统计学习。近年来,主要与人合做使用机器学习方法对信息检索中排序。相关性等问题的研究。曾在人大听过一场他的讲座。对实际应用的问题抽象,转化和解决能力值得学习。

周志华


周志华:http://cs.nju.edu.cn/zhouzh/

是南京大学的杰青,机器学习和数据挖掘方面国内的领军人物。其好几个研究生都进入了美国一流高校如uiuc。cmu等学习和深造。周教授在半监督学习,multi-label学习和集成学习方面在国际上有必定的影响力。另外,他也是ACML的创始人。

人也很是nice。曾经发邮件咨询过一个naive的问题。周老师还在百忙之中回复了我,并对我怎样发邮件给了些许建议。

杨强


杨强:http://www.cse.ust.hk/~qyang/

香港科技大学教授,也是KDD 2012的会议主席,可见功力非同通常。

杨教授是迁移学习的国际领军人物。曾经的中国第一位acm全球冠军上交的戴文渊硕士期间就是跟他合做发表了一系列高水平的文章。还有,杨教授曾有一个关于机器学习和数据挖掘有意思的比喻:比方你训练一仅仅狗,若干年后。假设它突然有一天能帮你擦鞋洗衣服,那么这就是数据挖掘;要是突然有一天,你发现狗发装成一个老太婆消失了,那么这就是机器学习。

李建中


李建中:http://db.hit.edu.cn/jianzhongli/

哈工大和黑大共同拥有教授。是分布式数据库的领军人物。

近年来。其团队在不肯定性数据。sensor network方面也发表了一系列有名文章。李教授为人师表。教书育人都作得了最好。在圈内是让人称道的好老师和好学者。

唐杰


唐杰:http://keg.cs.tsinghua.edu.cn/jietang/

清华大学副教授。是图挖掘方面的专家。他主持设计和实现的Arnetminer是国内率先的图挖掘系统。该系统也是多个会议的支持商。

张钹:


张钹:http://www.csai.tsinghua.edu.cn/personal_homepage/zhang_bo/index.html

清华大学教授。中科院院士,。现任清华大学信息技术研究院指导委员会主任。微软亚洲研究院技术顾问等。主要从事人工智能、神经网络、遗传算法、智能机器人、模式识别以及智能控制等领域的研究工做。在过去二十多年中。张钹教授系统地提出了问题求解的商空间理
论。

近年来,他创建了神经与认知计算研究中心以及多媒体信息处理研究组。该研究组已在图像和视频的分析与检索方面取得一些重要研究成果。

刘铁岩


刘铁岩:http://research.microsoft.com/en-us/people/tyliu/

MSRA研究主管,是learning to rank的国际知名学者。近年逐步转向管理,研究兴趣则開始关注计算广告学方面。

王海峰


王海峰:http://ir.hit.edu.cn/~wanghaifeng/

信息检索,天然语言处理,机器翻译方面的专家,ACL的副主席,百度高级科学家。近年,在百度主持研发了百度翻译产品。

何晓飞


何晓飞:http://people.cs.uchicago.edu/~xiaofei/

浙江大学教授,多媒体处理。图像检索以及流型学习的国际率先学者。

朱军


朱军:http://www.ml-thu.net/~jun/

清华大学副教授。机器学习绝对重量级新星。主要研究领域是latent variable models, large-margin learning, Bayesian nonparametrics, and sparse learning in high dimensions. 他也是今年龙星计划的机器学习领域的主讲人之中的一个。

吴军


吴军:http://www.cs.jhu.edu/~junwu/

腾讯副总裁。前google研究员。著名《数学之美》和《浪潮之巅》系列的做者。

张栋


张栋:http://weibo.com/machinelearning

前百度科学家和google研究员,机器学习工业界的表明人物之中的一个。

戴文渊


戴文渊:http://apex.sjtu.edu.cn/apex_wiki/Wenyuan_Dai
现百度凤巢ctr预估组leader。

前ACM大赛冠军,硕士期间一系列transfer learning方面的高水平论文让人瞠目结舌。

余凯


余凯:http://mi.eng.cam.ac.uk/~ky219/
余凯博士,百度研究院副院长,深度学习实验室(IDL, Institute of Deep Learning)主任,兼任负责百度图片搜索产品的高级总监。中组部第九批”千人计划“国家特聘专家,国际知名机器学习专家。

他在中国率先推进大数据人工智能在互联网行业的技术研发和创新。

他所带领的团队将深度学习技术成功应用于广告,搜索。图像。语音等方面,取得突破性进展。相继三次得到“百度最高奖”。在他的直接影响下。Andrew Ng等一批世界顶尖技术专家相继添加百度等中国互联网公司。他曾担任斯坦福大学计算机系Adjunct Faculty, 现在是南京大学、北京邮电大学和北京航空航天大学兼职教授,以及中科院计算所客座研究员。

相关文章
相关标签/搜索