版本:0.1算法
这篇文章不是为了给出答案(也给不出答案)或者猜测,而是但愿总结一下各类影响因素。随着技术水平和认知的发展,人们会作出更准确的预测。从主观上,我更愿意相信强人工智能不会灭掉人类,这样我就能够问心无愧的继续研究了。:)跨域
首先,这里说的是“消灭”人类,不是和人的个体冲突,而是对整我的类的威胁。这是一个很大的问题,除了须要研究各类因素以外,还须要对整个过程进行研究。也许最终强人工智能会和人类很好的相处,但中间的某个阶段就把人类消灭了。安全
从研究将来的角度来看,科幻小说和电影是走到前面的,给咱们提供了巨大的想象空间。在下面的推理和分析中也很容易找到相似场景和观点的科幻做品。好比,《三体》对动机和能力方面都涉及了(看起来低效的生物体才是战争的根源,强人工智能只是工具)。《终结者》系列,基本没涉及到动机,比较强调人类的能力(除了运气,实在没看出来人怎么赢)。还有《超验黑客》和《机器纪元》(不喜欢剧透的直接跳到下一段)从动机方面讲为何强人工智能不消灭人类。好比:从人类上传的人工智能仍是为人类考虑的、强人工智能不屑于消灭人类。架构
强人工智能是否会消灭人类的问题,要从动机和能力两方面来讨论。动机是强人工智能为何要消灭人类。能力是强人工智能是否具有消灭人类的能力。估计大部分人都相信,最终强人工智能的能力会超过人类,有消灭人类的能力,因此下文也主要从动机方面来讨论。工具
特异功能人工智能
这一段是从强人工智能的能力来分析的。所谓特异功能,是人类没有的能力。假设强人工智能生存于非生物体中,如互联网、实体机器人、或者电子生物混合体,就可以跨域生物体的限制。好比高速的通信(人的语言通讯速度大概也就10字节每秒),高能源储备(人一天吃好几顿饭,几天不吃就不能动了),复制、修复成本低(人不能复制,治病成本高),极端条件下生存能力强(人类须要空气,对气压,温度适应范围都小),更广的通信频率(人只能响应听力的机械,视力范围的电磁频率),进化快(人类须要数万年以上才能有显著的变化)等等。看上去是否是人类从配置上就完败了?也没那么惨,人类也有本身的优点,至少如今人类的意识仍是黑盒的(虽然也有被黑、被洗脑的状况)、人口基数巨大、不会被强电磁辐射直接消灭等。spa
智能水平设计
这里说的智力水平是综合水平,不考虑某一方面的强弱。进程
若是强人工智能的智力水平至关于普通动物,且人类和强人工智能之间存在直接的资源冲突,如空间、能源等,则有可能直接产生冲突。这种状况下其对人类的冲击,取决于强人工智能是否具备独立的复制能力或者很强的生存能力。资源
若是强人工智能的智力水平至关于人类,则能够将其考虑为独立的人。若是和人类有资源冲突,也许会采用比较温和的方式进行交换或争夺。但若是其成为了极端分子,对人类的冲击会更大。
若是强人工智能的智力高于人类,咱们可能已经没法预测其行为和倾向了。由于他的智力高于人类,对世界的认识、能力最终都会高于人类,咱们没法预测其是否会产生消灭人类的意愿。
除了智力水平,还可从另外一个方向来看。即强人工智能是否有自我意识,是否受人类控制。
假设强人工智能虽然可以解决不少问题了,但并无自我意识,其仍然是人类所控制的。因此,经过阿西莫夫的机器人三定律,就能避免其伤害人类。但这个的前提是人们愿意将机器人三定律设定进强人工智能。考虑到现今社会的恐怖主义势力不可忽视,也许会有人制造出专门攻击人的强人工智能。这和其它武器相似,但考虑到强人工智能的特异功能等,其破坏性是远远大于普通武器的。
若是强人工智能拥有了独立的自我意识和价值观,问题就会更复杂了。
数量
一个、多个仍是大量?也许这不是一个好问题。从人类的角度来看,数量很是清楚,一我的就是一我的,不会有异议。但强人工智能因为其连通性很是强,形态自由,也许没法数清某个范围内到底有几个强人工智能。为了讨论的方便,假设数量是可以肯定的。
假设只有一个强人工智能的实体。这个假设是由于要么其资源消耗至关大,只能造出一个;要么是由于其连通性强,最终全部强人工智能都会合成一个。因此,其对资源的整合能力会让其能力很是强。且做为一个实体,可认为其能作出惟一决定。若它不考虑人类的安全,则可能会产生很大的威胁。
假设有多个强人工智能,它们间有对立的状况,且较平衡。那人类也能够与其产生比较稳定的关系。假设有很是大量的强人工智能,可能就和如今的人类社会没有什么分别了,每一个强人工智能对于整个智能社会的影响也会变得有限。也能够和人类产生比较稳定的关系。这里的稳定关系不必定是对人类有利的关系,也许是人类控制强人工智能,也许是其对人类的奴役……
能耗水平
《奇点》是一本不错的书,探讨了理论上的信息和物质之间的比例,认为每一个粒子极限上能够表达1bit的信息。从另外一个方面,人类大脑的结构来看。大脑大概有120亿个灰质神经元细胞,每一个细胞约有数百到数万个连接。这还不包括数倍于这个数量的支持其的其它神经细胞。因为如今的计算架构和指令集不是按照神经元这样大规模并行计算所设计的,因此每一步神经元操做都须要数百步计算。以如今的计算水平来看,一我的脑须要数十万甚至百万台普通计算机来模拟。这里尚未考虑这么多计算机之间的通信的问题和其它难题。
考虑到人脑的效率并不必定高,且很大一部分用来解决输入输出。随着计算水平和算法的提升,其能耗会逐渐下降。因此,实际须要的计算资源会逐步减小。这里说的计算资源也创建在其它种类的资源上,好比能源、空间、矿产,都是计算资源的原材料。在这个发展过程当中,强人工智能若是想要提升本身的智能水平,必然要想办法获取更多的计算资源,从而与人类产生计算资源的争夺。若是有若干个强人工智能存在,它们之间也许会产生争夺。最终也许强人工智能可以利用整个宇宙的物质和能量,从而不屑于在地球与人类争夺。但在强人工智能可以发掘出更多的计算资源以前,人类可能已经被消灭了。
从保守的预测来看,若是人类不能跨越计算和能源的一些限制,也许强人工智能的能力就会一直受限,从而始终不能构成威胁。
智能来源
初期的强人工智能应该是从无到有培养出来的,其虽然有人类认知的印记,但也有其自我发展出来的东西。最终,人类可能可以将本身的智能上传到强人工智能的载体中。不管它是否是人的意识,它可能仍是会认为本身属于人类的一部分。假设它的逻辑思惟基本不发生变化,其选择可能更像人类。在大部分状况下,不会对人类产生威胁。若是强人工智能还有机会被下载到生物体里,和人类的关系可能会更加融洽。因此,强人工智能和人类的关系也可能受智能来源的影响。
人类愿意和其余高等智能创建什么样的关系
这里的其余高等智能也包括外星人,但这里只讨论强人工智能。人类做为强资源依赖型的物种(不能休眠、繁衍慢、欲望强),天生就对资源有不安全感,这可能也是人类大部分争斗的缘由。并且人类做为地球生态系统的长期霸主,也有很强的独占的惯性。也许强人工智能和人类的争斗也是人类挑起的,强人工智能只是反击。从而人类的不安全感也传给了其它高等智能。
在强人工智能的能力近似于或超过人时,人类可否最终尊重并接受这个现实,很大程度上也决定了人类的命运。
这里不得不将机器人三定律做为反例举出,其自己的出现也没有把强人工智能放到和人等价的位置上。不过这个问题自己也很复杂,强人工智能是人类一手创造出来的,而目的是为人类服务的。但最终的结果是人类可能不得不出让资源给强人工智能,且任其自由发展。
综上所述,已经有不少变量能够影响强人工智能和人类的关系了,我相信还有不少因素没有列出来。在强人工智能没有产生以前,每一个因素,及其发展过程都不能被忽略。因为人类的好奇等各方面缘由,即便人工智能对人类有巨大的威胁,仍是会努力的将它实现出来。这对于人类自己来讲,不必定是有利的,但从宇宙的发展来看,人类可能只是逆熵进程中的一步。其也是伟大的一步,从碳基智能到硅基智能,再到量子智能。这是智能不断的超越本身的认知,不断的理解本身的生存空间的过程。再后面会发生什么,就不是我等碳基生命可以预测的了……