SFKP • 计算机百科丨强人工智能的觉醒与人类的将来

clipboard.png

在昨天的推文中,我和你们分享了英特尔的一款神经拟态研究芯片 Loihi,这款芯片之因此厉害是由于具有了必定的“嗅觉”能力,能够根据生物信号来识别“嗅”到的气味,这属于强人工智能必备的能力之一,也让咱们离复制大脑更进了一步。算法

但由于篇幅有限,文章中对人工智能觉醒的引伸,也就是人工智能出现意识的状况只作了一个简单的分析,但你们彷佛对这个老生常谈的问题依旧很感兴趣,尤为是经历了 2020 年这个艰难的开局,让咱们进一步意识到了人的脆弱和无力。网络

今天,咱们就来详细的讨论一下具有意识的强人工智能到底发展到了什么程度,到底会有哪些风险,咱们人类能不能和强人工智能共存?架构

强人工智能的概念与定义

clipboard.png

1985 年 9 月 26 日,诺贝尔物理学奖得主,也被称为爱因斯坦以后最睿智的理论物理学家,第一位提出纳米概念的人 —— 理查德·费曼(Richard Feynman)在一次讲座中第一次提出了强人工智能的概念。机器学习

通常而言,弱人工智能不须要具备人类完整的认知能力,甚至是彻底不具备人类所拥有的感官认知能力,只要设计得看起来像有智慧就能够了。工具

所以,过去咱们所认知到的人工智能大可能是弱人工智能,而且人们一度以为强人工智能是不可能实现的。学习

强人工智能也称通用人工智能(artificial general intelligence,AGI),通常须要具有执行智慧行为的能力。强人工智能一般把人工智能和意识、感性、知识和自觉等人类的特征互相连结。测试

那么,这样的具有意识的强人工智能可以真的实现?优化

目前来讲,模拟出简单的一个生物头脑已经不是不可能的事,一如化学技术累积发展下,如今许多研发药品已经使用计算机模型来推演药物效果,以减小受试动物的痛苦等,或者就像昨天的文章中所说,英特尔已经让芯片有了“嗅觉”。搜索引擎

这得益于电脑技术的发展。编码

从前在使用电脑语言的时代,原先电脑被认为不可能具有自我解决能力,电脑只是看起来聪明,实质上仍是按照设计好的规则行事,并不能应付突如其来的情况,仍旧会犯下错误。

而近年来从电脑在摩尔定律与神经科学研究的协助下,透过在电脑上对生物神经元系统复杂的电位冲动模拟上取得了明显的突破,令人工智能越过发展中的坎 —— 神经处理机制的发现。

clipboard.png

由于生物的独特是在于刺激与反应下会强化其回馈做用,这类可以透过试错学习经验并总结,以回应各类刺激的系统(例如重复玩一款游戏便能熟能生巧),还能从每种回馈中又触发其余回路来升级改进思考结构,作出更复杂的精细反应(例如在对话中选择诚实、说谎、漠然以后考虑其不一样行为的后果等),这样的仿生领域已经获得长足的进步,令人脑与人工智能的区别逐渐变得模糊。

可是,在机器是否存在有自主“思想”上的议题,将还会一直是人们争辩的对象,特别是在智能理性与心理感性部分要如何区别、统合,更须要进一步引导其具备人性,来为人类提供最佳解,目前这些方法都尚未探索出来。

在一些可以自动推理出最佳解的工具已经出现,如 Google 旗下的 DeepMind 在此领域进展最多,成功开发出了初级的通用思考机器,他们将其类人脑神经程式称「人工通用智慧技术」,而「通用」一词就表明者这是一个能够透过自主「进化发展」的通用智慧。

强人工智能的标准

clipboard.png

人们提出过不少人工智能的定义(例如可以经过图灵测试),可是没有一个定义可以获得全部人的认同然而,人工智能的研究者们广泛赞成,如下特质是一个智能所必需要拥有的:

  • 自动推理,使用一些策略来解决问题,在不肯定性的环境中做出决策;
  • 知识表示,包括常识知识库;
  • 自动规划;
  • 自主学习、创新;
  • 使用天然语言进行沟通;
  • 以及,整合以上这些手段来达到同一个的目标;

还有一些重要的能力,包括机器知觉(例如计算机视觉),以及在智能行为的世界中行动的能力(例如机器人移动自身和其余物体的能力)。它可能包括探知与回避危险的能力。

许多研究智能的交叉领域(例如认知科学、机器智能和决策)试图强调一些额外的特征,例如想象力(不依靠预设而建构精神影像与概念的能力)以及自主性。

基于计算机的系统中的确已经存在许多这样的能力,例如计算创造性、自动推理、决策支持系统、机器人、进化计算、智能代理,然而并未达到人类的水平。

回到具体的检验强人工智能的上手段,科学家们也有着不少不一样的想法,其中最被普遍认知的是下面的这四种:

1. 图灵测试(图灵)

若是一我的(代号 C)使用测试对象皆理解的语言去询问两个他不能看见的对象任意一串问题。对象为:一个是正常思惟的人(代号 B)、一个是机器(代号 A)。若是通过若干询问之后,C 不能得出实质的区别来分辨 A 与 B 的不一样,则此机器 A 经过图灵测试。

2. 咖啡测试 (格策尔)

生活中空间、操做技能的测试。将一部机器带到任何一个普通的美国家庭中,让它在不经刻意设计的条件下,懂得泡好一杯咖啡。它须要主动在陌生空间中认识咖啡机、辨识咖啡和水、找到合适的杯子并放好,而后按正确的键和操做以冲泡咖啡。这须要仰赖机器人学、图像辨识的演算。

3. 机器人学生测试 (格策尔)

透过机器学习,分析和回答单一问题的测试 。让一个机器去注册一所大学,参加和人类学生一样的考试,而后经过并得到学位。例如日本的东大 AI 或是 IBM 参加抢答节目的华生。

4. 雇员测试 (尼尔森)

测试统筹、推断、发想、规划解决复杂问题的能力。让机器处在一个经济上重要的职位,须要它可以和一样职位的人类作得一样好或者更好。

这些测试虽然都不尽相同,但目的都是评定创造出的人工智能能不能解决人类的问题。

若是能够解决,那么就认定该人工智能属于强人工智能,也就是和人类同样聪明,称之为「人工智能完备」。

如今业界假定的人工智能完备的问题包括计算机视觉、天然语言理解,以及处理真实世界中的意外状况。目前为止,人工智能完备的问题仍然不能单靠人工智能来解决,依然须要介入人类的计算。

强人工智能的研究历史

clipboard.png

现代人工智能研究开始于 1950 年代中期。当时有一批狂热的人工智能爱好者,他们相信强人工智能不只是能够实现的,而且将在几十年内就能实现。

人工智能先驱司马贺在 1965 年写道:“在20年以内,机器就可以作到一我的能作到的任何事。”

然而,到了 1970 年代早期,研究者们意识到他们远远低估了其中的困难。资助 AI 项目的机构开始对强人工智能产生怀疑,向研究者们施压要求他们转向更有用的技术,所谓的「应用 AI」。

在 1980 年代初,由于电脑产品的迭代发展科学界重拾了对强人工智能的兴趣,并制定了一个十年计划 ——好比十年内实现人工智能的「平常对话」。 这也让当时的工业界以及政府机构从新往人工智能的领域中投入资金。

然而,人工智能的市场在 1980 年代晚期发生剧烈崩塌,20 年内实现强人工智能的远景终究是没有实现。

到了 1990 年代,人工智能研究者背上了没法实现本身承诺的名声,他们拒绝再做出任何预言,而且避免提到任何「人类水平」的人工智能,以避免被贴上「白日梦」的标签。

在 1990 年代和 21 世纪初,主流的人工智能在商业成果和学术地位上已经达到了一个新高度,依靠的是专一于细分的专门问题的解决。他们能够提供许多方案和商业应用,例如人工神经网络、机器视觉以及数据挖掘。

这些「应用人工智能」今天已经在工业技术和研究中获得普遍和深刻应用,在学术和产业方面都获得了许多资助。

大多数主流的人工智能研究者但愿,可以经过将解决局部问题的方法组合起来实现强人工智能,例如将智能体架构、认知架构或者包容式架构整合起来。汉斯·莫拉维克在 1988 年写道:

"我相信,有一天人工智能的自下而上的研究路线,会与传统的自上而下的路线半途相遇,从而得到真实世界中的能力,以及对于推理程序来讲极其困难的常识知识库。这两种方向结合在一块儿的时刻,会成为了产生真正智能机器的所谓「金钉子」。"

然而,在人工智能研究者之间也存在一些争论,甚至涉及这个领域的技术理论基础;例如,普林斯顿大学的 S.Harnad 在 1990 年关于符号基础假设的论文中这样写道:

"人们期待,人工智能的自下而上的研究路线,会与传统的自上而下的路线半途相遇。可是若是这篇文章的基础是正确的,那么这个但愿不会实现。

关于强人工智能的争论

clipboard.png

除了技术理论层面的分歧,关于强人工智能的争论,不一样于更广义的一元论和二元论的争论。其争论要点是:若是一台机器的惟一工做原理就是转换编码数据,那么这台机器是否是有思惟的?

希尔勒认为这是不可能的。他举了著名的「中文屋」的例子来讲明,若是机器仅仅是转换数据,而数据自己是对某些事情的一种编码表现,那么在不理解这一编码和这实际事情之间的对应关系的前提下,机器不可能对其处理的数据有任何理解。

基于这一论点,希尔勒认为即便有机器经过了图灵测试,也不必定说明机器就真的像人同样有思惟和意识。

但也有哲学家持不一样的观点。

丹尼尔·丹尼特(Daniel C. Dennett)在其著做《意识的阐释》里认为,人也不过是一台有灵魂的机器而已,为何咱们认为:“人能够有智能,而普通机器就不能”呢?他认为像上述的数据转换机器是有可能有思惟和意识的。

这个讨论,至今仍没有定论。但强人工智能的研究,并未因分歧而停滞。

强人工智能,科技企业的下一个战场

clipboard.png

谷歌有一个神秘的部门 —— 谷歌大脑,这是谷歌在人工智能领域开发出的一款模拟人脑的软件,经过开发具体的算法协助改进了谷歌的搜索引擎、谷歌翻译、谷歌地图和云计算基础设施。

一样,2015 年,马斯克和 Y Combinator 前总裁萨姆·奥尔特曼(Sam Altman)联合创办了 OpenAI,目标也是开发通用人工智能,确保「造福全人类」的前提下开发技术。2016 年微软也加入了这一项目。

2019 年微软宣布出资 10 亿美圆,让 OpenAI 在微软 Azure 云平台开发 AI 技术。

除了加入 OpenAI 以外,纳德拉在 2014 年被任命为微软的首席执行官后不久,就开始围绕人工智能从新定位。纳德拉宣称,微软旗下的全部产品和服务都会“加入人工智能”,还宣布人工智能是塑造将来的三项基本技术之一(另外两项是“混合现实”和量子计算)。

此外,Facebook 也投资了人工智能实验室,国内的阿里巴巴、腾讯、百度等科技企业也纷纷成立目标为强人工智能的实验室。根据研究公司 Mind Commerce 发布报告显示,预计到 2023 年,通用人工智能的投资将达到 500 亿美圆。

目前,科技企业与研究机构对强人工智能的研究基本上分为两大阵营:一方阵营认为只有深度学习才能够实现强人工智能,另外一个阵营则认为必须与其余方面(如逻辑规则)结合。在深度学习阵营中,还有进一步的划分:一群强调算法创新,另外一群则更关注构建神经网络的规模以及提供的数据量。好比 OpenAI 就是坚决的「数据党」。

但不管如何,强人工智能或者说是通用人工智能,已经成为了全球科技企业的战场,这不只关乎市场份额,也是会不会被将来的市场淘汰的问题。

人类能够和强人工智能兼容么?

clipboard.png

已故的斯蒂芬·霍金将强人工智能称为对人类的最大威胁,前文提到的马斯克虽然经过 DeepMind 得到了丰厚的收益以及行业影响力,但他也曾经将通用人工智能的研究比做「召唤魔鬼」。

马斯克与谷歌的联合创始人拉里·佩奇也是朋友。他在一次采访中告诉记者,担忧佩奇的公司在可能成功地开发出超人智能后失去控制。即使这不会发生,一家公司控制如此强大的技术仍是使人担忧。

既然这么担忧,他为何不中止人工智能的研究?

缘由多是,结束人工智能研究不只意味着放弃理解咱们人类的智能究竟是如何工做的,还意味着放弃了改善人类情况的机会,也就是令人类文明更加美好或者维持下去的机会。

将来避免强人工智能带来的潜在风险,计算机科学家斯图尔特·拉塞尔(Stuart Russell)在他的最新著做《人类兼容:人工智能与控制问题》中提出了一个解决方案,可让强人工智能对人类有益,而且永远不会失控:

“理想的强人工智能系统是其惟一的目标,是实现人的偏好而不是其自身目标的系统。只有这样人工智能才不会为了实现目标,而不顾其余的缘由独断独行。

最后一点很是重要,由于这正是当前人工智能所缺乏的。现阶段驱动人工智能的系统不是让其理解人类的偏好,而是实现系统设定的固定目标,好比得到更多的广告点击、最优化行为路径,而不会估计对人类可能形成的危害和是否违背了程序设定的初心。

正由于这种设定,当前的人工智能系统已经逐渐显露出不少的问题,好比算法误差、种族歧视等问题。

随着人工智能在执行任务时变得更加高效,这些问题可能会加重。固定于实现一个目标的强人工智能系统,最终可能会为了实现他的目标而牺牲整我的类社会。

但单纯的理解人类意图也并不是完美的解决方案,由于设定者并不能表明全人类,如何处理不一样人类的偏好冲突和人类自己的邪恶思想,还是没法规避的风险。

毕竟人类也不是完美的,人类的决策也存在着不少的争议。

只要回顾一下咱们人类如何凭借自身超然的智慧来控制整个世界,就能想象当强人工智能的智慧超过咱们时会发生什么。对此罗素在书的最后提出了一个问题,也做为本文最后的一个话题来和你们探讨:

在一个存在更高等智慧的非生物世界中,咱们人类还能保持相似如今这样的控制权么?若是能够的话,咱们的依仗将是什么?

clipboard.png

相关文章
相关标签/搜索