Science:人工智能的发展离不开神经科学,先天结构或是下一个方向

数学家阿兰·图灵 1950 年的开创性论文引领了人类对人工智能(AI)的探索,他在这篇论文中提出了一个问题:「机器可否思考?」,那时候惟一已知的可以进行复杂计算的系统是生物神经系统。所以,绝不奇怪那时候这个新兴的 AI 领域的科学家都将大脑回路做为引导。算法

其中一条道路是经过类脑回路执行智能计算,这个方向的早期尝试近来已经创造出了巨大的成功,并可被描述成一种用于建模皮层回路的高度还原论(reductionist)的方法。网络

其当前的基本形式被称为「深度网络」架构,这种脑启发模型是经过类神经元件组成的连续层构成的;这些元件按照生物学中相似做用的组件而被称为「突触」,它们经过可调节的权重相连。架构

深度网络和相关方法在 AI 系统中的应用已经带来了变革。研究证实它们在 AI 研究的核心领域优于以前已知的方法,包括计算机视觉、语音识别和生成、玩复杂的游戏。它们也已经取得了普遍的实际应用,涉及不少领域,包括计算机视觉语音和文本翻译,其它还有不少领域也存在大规模的努力。学习

我将在这里讨论大脑回路中的其它方面将可能如何引导网络模型的发展,从而让咱们了解认知和通用人工智能的更多方面。动画


差 异ui

深度网络的核心问题是学习(learning),这是对突触的调整,从而获得针对其输入模式的指望输出。这样的调整是基于训练样本集自动执行的,而训练样本集中包含输入模式以及配套的指望输出。而后,学习过程经过调整权重获得训练输入模式的指望输出。成功的学习会让网络超越记忆训练样本的状况,并且使其可以泛化,为学习过程当中从没见过的新输入模式提供正确的输出。编码

研究者将深度网络模型与实际获得的生理学、功能性磁共振成像和行为数据进行了比较,结果代表大脑与这类新模型之间存在一些有趣的类似性,但同时也存在一些不类似的地方(见图)。对比灵长类动物的视觉系统,生理学响应与模型响应在神经元响应过程的早期阶段比后期阶段更为近似,这说明深度网络模型也许能更好地体现早期的处理过程,而不是后期的更涉及认知的过程。人工智能

大脑回路与学习,来自 C. BICKEL/SCIENCE翻译

除了深度网络,AI 模型近来还融合了类脑计算的另外一个重要方面:强化学习(RL),其中使用了大脑中的奖励信号来修改行为。orm

这种形式的学习中涉及的大脑机制已经获得了普遍的研究,并且其计算模型也已经在 AI 领域获得了使用,尤为是在机器人应用中。强化学习可用于在世界中运做的智能体(人、动物或机器人)中,经过接收的奖励信号做为回报。强化学习的目标是学习一个最优「策略」,这是从状态到动做的一个映射,以便最大化随时间得到的一个总体度量的奖励。

在近期的一些 AI 算法中,强化学习方法已经与深度网络方法结合到了一块儿,而且在游戏领域的应用尤为突出,涵盖的范围包括流行的视频游戏到高度复杂的游戏,好比国际象棋、围棋和将棋。深度网络与强化学习的结合在玩游戏方面取得了惊人的成果,包括使人信服地击败了世界顶级的围棋棋手、在大约 4 小时的训练以后达到了国际象棋世界冠军的水平;这些都是仅从游戏规则开始,经过内部自我对抗进行学习而达成的。

从使用神经科学引导 AI 发展的角度看,由于相比于皮层回路,这些网络的形式是通过高度简化的,因此这样的成功很让人惊讶。一些其它的脑启发方面(好比跨神经元组归一化或使用空间注意)也已经被整合进了深度网络模型中。但通常而言,咱们所知的有关神经元的几乎一切(它们的结构、类型、互连性等等)都被排除在了深度网络模型的当前形式以外。

咱们目前仍不清楚生物回路的哪些方面在计算上是关键的,而且也可用于基于网络的 AI 系统,但结构中的差别很显著。好比,生物神经元在它们的形态学、生理学和神经化学方面都很是复杂和多样。

典型的受到激励的锥体神经元的输入分布在复杂的、高度分支的底和顶树突树上。抑制型皮层神经元具备多种不一样的形态,它们极可能执行着不一样的功能。典型的深度网络模型都没有包含这种异质性和其它复杂性,而是使用了有限种类的高度简化的同质的人工神经元。在网络中单元之间的链接性上面,大脑中皮层回路也比当前的深度网络模型更复杂,而且在同一层的神经元之间具备丰富的横向链接,其中既有局部链接,也有长程链接,并且还有从皮层区域的高层区域到低层区域的从上到下的链接,并且可能会组织在典型的局部「规范回路(canonical circuits)」中。

基于深度网络的学习方法主要在与现实世界的感知数据(好比视觉和语音)相关的问题上取得了显著的成功,近来研究者已经将愈来愈多努力投入到了天然界中更涉及认知的问题上。好比在视觉领域,网络模型最先是为处理目标分类和分割等感知问题而开发的。相似的方法通过某些扩展后如今已经被用在了图像描述(任务目标是生成一张图像的简短语言描述)和视觉问答(任务目标是为以天然语言提出的有关图像内容的查询提供恰当的答案)等更高层面的问题上。其它还有一些非视觉任务,好比评价幽默程度、检测讽刺、获取直观的物理知识或社会理解的一些方面。研究者们也为一些高难度的真实世界应用开发出了相似的方法,包括在线翻译、灵活的我的助理、医疗诊断、先进机器人学、自动驾驶。

有了这些重大的研究努力以及投入到将来 AI 应用中的大量资金,须要解决的重要问题是:当前的方法能在何种程度上生成「真实」和相似人类的理解,或者是否还须要其它的(也许很是不一样的)方向来处理认知和通用人工智能(AGI)的众多不一样方面。咱们还不知道这个问题的答案,但不论是科学上仍是商业上,这都很是重要。


先天结构

若是事实证实当前深度网络模型在产生类人认知能力方面的成功是有限的,那么咱们很天然又会向神经科学寻求指引。

当前 AI 模型忽视的大脑回路的那些方面是否会是 AGI 的关键?大脑的哪些方面多是尤为重要的?

目前咱们尚未显而易见的答案,由于咱们对皮层回路的理解仍然还颇有限,但我会简要讨论一下大脑和深度网络模型看起来根本上不一样的一个通常性方面,并且这个方面极可能在咱们追寻类人 AGI 之路上发挥重要的功用。

这一差别的核心是一个老生常谈的问题,关乎认知中经验主义(empiricism)与先天主义(nativism)之间的平衡,即先天的认知结构与通用的学习机制之间的相对重要程度。

当前的 AI 建模方法严重倾向于经验主义一方,会使用大型的训练数据集。相对而言,生物系统每每仅需少许训练就能完成复杂的行为任务,它们基于特定的预先存在的网络结构,并且该结构在学习以前就已被编码在了回路之中。

好比,针对复杂的导航任务,包括昆虫、鱼类和鸟类在内的不一样动物物种都能部分地依靠一套先天固有的特定用途的复杂精细的机制外加精妙的计算能力来完成。

对于人类,婴儿会在生命的最初几个月开始发展出复杂的感知和认知技能,且仅需不多或无需明确的训练。好比,他们可以自发地识别出人手等复杂的目标、跟随其余人的注视方向、经过视觉分辨动画角色是在帮助其余角色仍是妨碍其余角色,还能完成其它不少不一样的任务,能表现出他们对物理交互和社会交互的初级理解。

大量发展中的研究都代表这种快速的无监督学习之因此是可能的,缘由是人类的认知系统经过进化而配备了先天的基础结构,这些结构可以促进对意义概念和认知技能的习得。

与已有的深度网络模型相比,人类认知学习和理解的优越性可能很大程度上源自人类认知系统具有的丰富且复杂不少的先天结构。近来对婴儿期视觉学习的建模研究已经代表学习与先天机制的结合是有用的,其中有意义的复杂概念既非先天固有,也不是靠本身学习获得。

从这个居中的角度看,先天的那部分不是已经发展好的概念,而是更简单的「原型概念」,这能提供内部的教学信号,引导学习系统,从而仅需少许或无需明确的训练就能逐渐习得和组织复杂概念。

好比,研究已经代表一种特定的图像运动模式能够为人手识别提供可靠的内部教学信号。对人手以及它们在操做物体中的参与状况的检测能够引导学习系统学习检测注视方向,而检测注视目标又在学习推理人的目标中发挥着重要做用。这样的先天结构能够经过在局部皮层区域中布置特定的初始链接,再将输入和偏差信号提供给特定的目标来实现。

人工网络模型也能够采用有用的预设结构来使其学习和理解更接近人类。发现有用的预设结构这一难题的解决方法能够是理解和模仿相关的大脑机制,或开发从头开始的计算学习方法来发现支持智能体、人类或人工智能的结构,使其能以高效且灵活的方式学习理解本身的环境。

这一方向上已有一些尝试,但通常而言,「学习先天结构」这一计算问题不一样于当前的学习过程,并且咱们的了解还不多。长期来看,将经验主义方法与计算方法结合起来处理这一问题极可能对神经科学和 AGI 都有利,并最终可能会成为可应用于这两个领域的智能处理理论的一部分。



为了帮助你们让学习变得轻松、高效,给你们免费分享一大批资料,让AI愈来愈普及。在这里给你们推荐一我的工智能Python学习交流群:705673780欢迎你们进群交流讨论,学习交流,共同进步。

当真正开始学习的时候不免不知道从哪入手,致使效率低下影响继续学习的信心。

但最重要的是不知道哪些技术须要重点掌握,学习时频繁踩坑,最终浪费大量时间,因此拥有有效资源仍是颇有必要的。

相关文章
相关标签/搜索