强人工智能基本问题:自上而下仍是自下而上?

        人类智能在宏观上有心理学,微观上有分子生物学等学科研究。但每一个方向研究到必定阶段就停滞了,没有哪一个学科能告诉咱们:为何能有智能,如何才能产生智能。即便已经了解了大脑的不少知识,人类智能仍然是个黑盒子。算法

        对黑盒的研究,要么从外部观察其行为,而后来模拟其结构,可称为自上而下的研究;要么猜想其结构,而后从外部的输入输出来验证其行为,可称为自下而上的研究。题目所说的自上而下仍是自下而上便是从哪一个方向来研究强人工智能问题。网络

        宏观上研究的成果中,最显而易见的就是类人机器人。这类机器人从行为、语言、表情等方面来模拟人。若是最终能让人以为这些机器人是真人,那么这个方向就算是成功了。固然,从如今的成果来看还不成功。另外一方面是深蓝、沃森这样的依靠在下棋、回答问题等方面来打败人类智能,从而证实本身能力。从这些特定的领域上来看,它们是比较成功的。但就算是把上面提到的全部方面都合到一块儿,也很难认为他们达到了人类的能力。机器学习

        微观上的研究,是从感知器的结构被提出来后开始的。今后产生了如今的人工神经网络、机器学习等大量的算法和研究成果,解决了不少实际问题。从微观上出发,证实了它们从微观结构上模拟的优点,但须要花费大量时间创建问题模型。函数

        由此看来,当前自上而下和自下而上的方法都有了必定的成果。但经过现有方法来构建强人工智能,成本是很是巨大的,几乎不可实现。学习

        有些状况下,物体在不多数量下的性质和庞大数量下的性质相差很大。这也是复杂系统研究的难点。从不一样的层级进行研究,可以发现不一样的规律,解决不一样的问题。这里提到了层级的概念,这里的层级和上一篇文中分层的层次不同。上文的层次是神经网络中具体的层次。本文的层级是因为研究对象数量或其它性质的巨大不一样,从而产生了看上去很不同的行为。对不一样层级的行为能概括出不一样的规律,这些规律可以帮助咱们有效的理解和预测研究对象的行为。好比低速下的牛顿力学和光速下的相对论,因为速度的巨大差别,在低速下得出了简化后的牛顿力学,其帮助了咱们认识了低速世界。后来的相对论不只概括了高速时的规律,在低速下也能适用。再好比物质在原子、分子层面体现出的是基本做用力;在纳米层级又体现出新的性质;在宏观上人能直接观察的规模上,又组成了万物,造成了更复杂、更多的性质。这看起来和智能是很相似的,首先神经元细胞有本身的生物性质;大量神经元细胞(平方厘米级)组合在一块儿,能够被观察到协同进行某种活动;整个大脑则产生了咱们所能感知的智能;而整我的类社会,则储存了人类的全部知识、习惯,产生了群体智能和行为。这种群体智能也不是一个大脑能有效理解和预测的。人工智能

        每一层级的规律实际上是其低一层规律的规模化结果,其又是上一层规律的基础。若是要对整个系统有全面的了解,就要从某一层级出发,往上或往下研究,得出规律。若是说一个神经元细胞是一个的层级,而整我的脑也是一个层级。在这两层之间还有多少层呢?自上而下的研究方法给出了人脑的功能区的划分,这个做为一个层次。而自下而上的方法给出了人工神经网络的层次,这个层次可以处理单个问题或叫作模式。这两方面的研究到这基本都停滞了。这中间必定还有一个或若干个层次可以帮助咱们理解智能的规律。对象

        再来看看题设的问题,若是必定要给出一个答案的话,我会倾向于自下而上的研究。先说说自下而上研究的优点。自下而上的研究看起来更像是白盒研究,经过模拟来了解智能真正的机制。而自上而下的研究像是黑盒研究,更多的须要去猜想或者尝试来达到一样的功能。若是可以猜出结构固然最好,但若是黑盒很是复杂,猜出结构是很难的。模仿其复杂行为也是很困难的。但同时,自上而下的研究也很是具备指导意义,其了解了人脑不一样区域是有分工的,输入输出的处理使用了大部分大脑。自上而下的研究也积累了不少经验,能够用来验证强人工智能的能力。继承

        强人工智能的物质基础和神经元细胞是不同的,咱们不是经过制造真正的神经元细胞来制造强人工智能。因此研究的最底层级不是直接映射到神经元细胞,要把神经元细胞中与智能相关的一些特性抽取出来,以便在其它物质基础上构造智能。须要区分细胞的哪些行为是和智能相关的,哪些行为是和其物质基础相关的。有些因素也许看上去和物质基础相关,但其可能也影响了智能的产生。如下是一些神经元细胞特性的猜想和讨论,能够有助于把和智能产生相关的部分抽取出来。效率

1.神经元细胞的大部分活动是依靠化学反应,有些是不可逆反应。这个过程须要不断的反应物质和能量的供给,一旦能量跟不上,其反应可能变得迟钝。在计算机中,能量的供给是依靠电子的流动,不须要物质的化学变化,因此能量供给是高效的。但神经细胞对大量刺激会变得迟钝这样的特性也许是产生记忆效果的一个因素。同时,因为细胞内物质浓度的变化,可能会引起下一级反应,从而产生神经元细胞的变化,这也多是产生记忆效果的因素。总之,从这一点来看,神经元的记忆是能够经过其输入输出的变化来调整的,不必定须要经过全局的目标函数来调整。基础

2.上一点中提到的物质、能量短缺的影响,不只会影响神经元细胞自己,也会对周围细胞活动产生抑制。这也是一些选举小范围中最活跃神经元算法的物质基础。这个特性有利于减少局部过于活跃,从而产生振荡或弱化全局的特征。

3.神经元的树突生长是比较慢的,可能要通过大量的刺激,才能产生有效的突触。强人工智能也许能够经过外部开关来判断是否处于训练时间,来调整链接的创建速度,从而提升学习效率。

4.神经元细胞的空间结构。大脑皮层的皱褶展开后是一个平面,这个平面上的灰质细胞也有必定的层数。对于灰质细胞的层次的做用,也产生了有意思的算法,好比Hierarchal Temporal Memory(HTM,这是我看到的最有趣的一个算法)。因为人类的空间是三维的,因此物理结构最复杂也就是三维结构。但考虑到能量供给和信息传输,神经元细胞只能达到相似于二维的结构。这时候就产生了神经元细胞相邻的不少特色。假设神经元细胞树突的长度平均是有限的,并且每一个神经元的大部分树突是比较短的,这样相邻的神经元之间的交流就更多,长距离的就比较少。因此相邻细胞之间处理的信息更相似。

5.细胞个体的可靠性是没有计算机高的,因此神经元细胞须要更强的冗余性。相邻细胞之间须要经过相互备份来产生冗余。所谓备份、即它们的输入输出状态、以及反应的阈值都比较类似。类似值高,则变化所须要的刺激和能量都高,一方面表明了学习难度的增大,另外一方面也表明记忆的强度很高。反之,则学习难度低,但容易由于覆盖或神经细胞死亡产生遗忘。强人工智能也许能够经过减小相邻细胞的类似性来缩小网络的规模,并用别的方式来控制记忆强度。

6.神经元细胞的生长分化。神经元细胞是在胚胎发育的过程当中产生的,因此有从无到有的过程。在当前神经网络的研究中,网络的初始化和如何决定规模都是须要考虑的问题。而在大脑的初始化依赖于细胞的分裂。在神经细胞的分裂过程当中,新的细胞会继承原先细胞的突触。这个过程不只保留了记忆,同时保持了各类输入输出的连通性。

        总而言之,从神经细胞级的研究,可以找到不少有效的线索和特色,这些是上一个层级规律的基础。但这些特性既有和智能产生相关的部分,又有和生物体运转相关的部分。如何对这些特性进行筛选,从而得出细胞层级的智能基础,对于研究上一层级是很是重要的。因为智能的复杂性,单纯自下而上的研究容易发散到不正确的道路。在各类算法试验的过程当中,须要自上而下所获得的一些经验来验证是否走到了正确的路线上。

        以上的文字表明做者的观点和想法。

        因为人类的记忆和连通性的限制,可能会将别人的观点和想法当成本身的、或有人会有一样的想法,没有关系的,有问题你们一块儿来讨论学习,详情看我主页哦!

相关文章
相关标签/搜索