到底什么成就了今天的人工智能?(上)

摘要: 人工智能发展迅速,但是到底什么成就了今天的人工智能呢?跟随咱们一块儿来探索吧。

维基百科对智能有以下定义:算法

智能是一种可以感知或推断信息,并将其做为知识留存下来,自适应地用于某种环境或上下文的能力。数组

    • *

人工智能(Artificial Intelligence)
虽然咱们很难对人工智能作一个确切的解释,但能够从查尔斯巴贝奇的分析机讲起。它虽然没有任何特殊的“自适应”能力,但却很是灵活。遗憾的是,理论上虽然完美,但却没有得以实现。网络

巴贝奇分析机早图灵机50年左右出现。从理论上讲,它可以将任何可计算的函数做为输入,并在彻底机械的状况下产生输出。架构

复杂性理论(complexity theory)由此得以发展,同时人们也意识到构建通用计算机其实相对简单。此外,算法的实现也愈加多样。尽管还存在一些技术上的挑战,但在过去的70年中,相同价格可购买到的计算量大约每两年翻一番。框架

也就是说,构建计算力强大的人工智能系统愈加容易。然而,这受到了所提供或输入的数据,以及处理时间的限制。能够作以下思考:若是每台计算机的能力都受到数据和时间的限制,咱们还能称之为智能计算机么?机器学习

下面咱们简单回顾一下人工智能的发展史。人类的智能主要包括概括总结和逻辑演绎,对应着人工智能中的联结主义(如人工神经网络)和符号主义(如吴文俊方法)。符号主义认为智能是基于逻辑规则的符号操做;联结主义认为智能是由神经元构成的信息处理系统。其发展轨迹以下图所示:分布式

联结主义,即“橙色阵营”在一开始处于领先地位,得益于其与神经科学和人类大脑之间的关系。人类大脑被视为“强AI(Strong Artificial Intelligence)”和“通用人工智能(Artificial General Intelligence,AGI)”惟一的成功应用。然而,第一代神经网络在处理实际问题时屡屡受挫。由于神经网络多数是线性的,而且能力十分有限,深受外界质疑。与此同时,符号主义,即“蓝色阵营”利用严谨的数学理论创造出了更多有用的东西。函数

随着手工知识的积累,输入或输出数据量急速增加,系统的性能没法适应需求,联结主义逐渐衰败。就比如法律,专家制定出再完备的规则都有可能相互冲突,此时便须要愈来愈多的“法官”来解决这些问题。这减缓了联结主义的发展。工具

后来,“橙色阵营”获取了足够的标签数据和计算资源,可以在可接受的时间内对网络进行“训练”,世界各地的研究学者开始进行大量试验。尽管如此,联结主义仍花费了大量的时间使大众从新信任神经网络,开发人员也花了较长才适应了模糊逻辑和统计的概念。性能

在对人工神经网络进行详细讨论前,本文将先介绍一些其它方法:决策树、几率模型、进化算法。

决策树(Decision Tree)是最简单有效的算法之一。其“学习”是经过顺序地遍历数据的每一个属性并找到对特定输出具备最大预测能力的属性来执行的。像随机森林这样的高级变体使用了更复杂的学习技术,并在同一个模型中组合多个树,它们的输出是经过“投票”获得的,这与人类的“直觉”相似。

几率模型(Probabilistic models)是统计方法的表明。几率模型与神经网络常共享架构、学习/优化过程甚至符号。可是几率模型大多受几率逻辑(一般是贝叶斯)的约束,而神经网络则无此约束。

进化算法(Evolutionary computation)最初是受到生物进化的启发,且以随机突变和适应度为主。因为修改一般是随机的,其限制噪声的效果突出。进化算法是一种引导式搜索,许多方面与退火过程相似。

上述方法有一个共同点:它们从较差的策略开始,逐渐对其改善,以期在某种性能评估方法中取得更好的分数。

现在,机器学习技术,尤为是深度学习正在主导人工智能的发展。与大多数使用1到2个中间抽象层(所谓的浅模型)机器学习方法不一样,深度学习可能包含数百甚至数千个堆叠的可训练层。

研究学者认为对这样的深度网络进行训练,须要全新的优化程序。事实证实,使用梯度降低的逆向传播(即链式法则)便可很好的进行训练,也可以使用Adam或RMSProp。

神经网络训练流程以下:
一、 获取输入
二、 计算输出
三、 评估性能
四、 调节参数
五、 重复训练,至性能最优

梯度降低法只需调整参数使偏差最小。但该方法容易使网络陷入局部最优,而没有得到最优性能。然而,最新研究代表许多神经网络已经可以获取全局最优解。

深度学习实现了训练的并行化,即分布式学习。能在同一时间跨多台机器训练相同的体系结构,同时实现梯度交换,加速超过1000倍。

此外,通过训练的网络能够处理类似的任务,即迁移学习,这也是人工神经网络普遍流行的重要缘由。例如,通过图像分类训练的网络能够用于其余计算机视觉任务,天然语言处理和其余领域。更重要的是,同一个网络还能够用来解决不一样模式的问题。

强化学习(Reinforcement Learning,RL)则将它们结合在了一块儿。RL的最初想法来自行为心理学,科研人员探究了在行为心理学中奖励如何影响学习和塑造动物的行为。

RL并不须要出现正确的输入/输出对,也不须要精确校订次优化的行为。举个例子,咱们并不须要教会机器人如何精确移动,只需根据它走多远或多快对其进行奖励,它会本身找出正确的路线。然而,这种训练模式在实践中也是最具挑战性的,即便是相对简单的任务,一般也须要付出大量的努力才能正确设置。

在实际问题中,一般很难在环境中指定奖励,研究人员目前更多地关注内部奖励模型。

与RL并行的是逆向强化学习(Inverse Reinforcement Learning):当完成复杂的任务时,强化学习的回报函数很难指定,咱们但愿有一种方法可以找到高效且可靠的回报函数,这种方法就是逆向强化学习。

通用人工智能中一些框架来自于严格的数学理论,一些受神经元回路的启发,还有一些基于心理模型。本文将以HTM、AIXI、ACT-R和SOAR为例进行介绍。

层级实时记忆算法 (Hierarchical Temporal Memory,HTM),HTM算法旨在模拟新大脑皮层的工做原理,将复杂的问题转化为模式匹配与预测。它强调对“神经元”进行分层级,以及信息模式的空间特性与时间特性。

稀疏分布表示(Sparse Distributed Representation, SDR)是HTM算法中的一个重要概念。实际上,它只是拥有几千个元素的位数组。就像大脑中的信息老是经过亿万神经细胞中的小部分活跃细胞来表示同样,HTM使用稀疏分布表示语义相关的输入。

HTM算法中的抑制(Inhibition)相似于批规范化和其余一些正则化技术,提高(Boosting)在机器学习中已是一个相对较老的概念,层次结构(Hierarchical Structure)并无真正的大脑皮层的结构灵活。HTM对物体间关系的重视程度低,甚至连稀疏分布表示也能够用普通神经网络构建。整体来讲,HTM须要进行大量调整才能获取与其它机器学习算法至关的性能。

接下来介绍AIXI,它是一个对通用人工智能的理论上的数学形式化表示。然而,它有一个显著的缺点——没法计算。事实上,许多机器学习算法均不能精确计算,只能作近似处理。AIXI表示以下:

AIXI的核心是一个强化学习智能体,在诸多方面与Schmidhuber开发的Godel Machine相似。然而,它们都是AGI的描述性模型,复杂程度高,没法执行,但不能否认,它们都是人工智能研究人员的灵感源泉。
相反,ACT-R,即理性思惟的自适应控制系统 (AdaptiveControl of Thought—Rational),它不只是一种理论,并且是一种用LISP编写的软件框架。

ACT-R主要关注不一样类型的内存,较少关注其中数据的转换。该理论试图理解人类如何得到和组织知识以及如何产生智力活动,其研究进展基于神经生物学研究成果并从中得以验证,且已成功地为许多不一样认知现象创建起合理的模型。然而,它在实际应用中并未取得成功,最终只做为研究人员的工具。SOAR与ACT-R有着类似的根源和基本假设,但它更关注于实现AGI,而不是创建人类认知的模型。

ACT-R和SOAR是人工智能符号主义的经典表明,在认知科学的发展中起到了重要做用,可是应用它们相比现代联结主义须要更多的配置和先验知识。此外,神经影像和其余用于心智研究的工具愈加详细和准确,并且ACT-R和SOAR在某必定程度上过于僵化,没法保持相关性。



本文做者:【方向】

阅读原文

本文为云栖社区原创内容,未经容许不得转载。

相关文章
相关标签/搜索