像跳伞、蹦极、滑雪之类惊险刺激的运动是旅行乐趣中很是重要的一部分,而 AI 之旅中一样存在这样好玩刺激的项目,它就是 Magenta,一个探索机器学习在创做艺术和音乐过程当中的做用的研究项目。也就是说,让 AI 涉足艺术领域,包括写歌、画画、写小说等,你可能会说了,AI 所谓的创做永远没法超越人类,是这样的,至少目前和可预见的将来是这样的,而 Magenta 的目的不是为了取代人类进行创做,而是探索艺术创做的过程,能够做为一种工具在人类创做艺术的过程当中提供有价值的帮助
Magenta 众多的模型中最出名的当属 Sketch-RNN 了,就像它的名字同样,它是一个能够自动生成素描(sketch)的循环神经网络(recurrent neural network)模型。若是你没听过 Sketch-RNN,那你必定玩过或者听过猜画小歌(Quick, Draw!)这款游戏吧,给你一个名字,你把它画出来,看 AI 能不能猜出你画的是什么,到目前为止,Quick, Draw! 数据集已经收集了 345 个类别共计 5000 万个矢量素描图,若是你玩过这个游戏,那么其中也有你的一份贡献
html
早在希腊神话中就出现了机器人和人造人,如火神赫菲斯托斯的黄金机器人女仆和塞浦路斯国王皮格马利翁的妻子加拉泰亚(被爱神赐予生命的雕像)
中国古代也有相似的记载,在公元前 3 世纪的《列子》一书中曾记录了一个 “偃师献技” 的故事,讲述的是周穆王西巡归来的途中,尚未到达中国境内,遇到了自愿前来献技的工匠偃师,偃师次日带来了一个像真人同样的歌舞艺人,能歌善舞,且心肝脾胃肾等虽然都是假的但包罗万象,连周穆王都感叹道 “人之巧乃可与造化者同功乎?”
中世纪的时候,有传言说炼金术士能够将心智放入物品中
到了 19 时机,关于人造人和思考机器的想法在小说中发展起来,如玛丽·雪莱的弗兰肯斯坦(有兴趣的能够看一下这个电影)
虽然早在公元前 1000 年前中国、印度以及希腊的哲学家都开发了形式演绎的结构化方法,可是这么多世纪过去了,随着许多哲学家、心理学家、数学家等伟人的不断探索,才让人工智能或者说机械推理慢慢变为可能,如 17 世纪的莱布尼兹和笛卡尔等人探索了全部理性思想能够像代数或几何同样系统化的可能性,受到 1913 年罗素和怀特海所著《数学原理》的启发,David Hilbert 向二十世纪二三十年代的数学家们提出挑战:“全部的数学推理均可以形式化么?”,图灵机和 Lambda 演算等都给出了回答,这些回答使人惊讶的有两方面,一是它们证实了数学逻辑被实现时确实存在限制,二是这也代表在这些限制范围内任何形式的数学推理均可以机械化git
20 世纪开始人们就已经知道了咱们神经元的大概结构
github
1956 年,Marvin Minsky, John McCarthy 和来自 IBM 的两位资深科学家 Claude Shannon 和 Nathan Rochester 组织召开了达特茅斯会议(Dartmouth Conference),会议提出了一个主张 “学习的每一个方面或任何其它智能特征均可以如此精确地描述,以即可以使机器模拟它”,McCarthy 说服了与会者接受 “人工智能”(Artificial Intelligence)做为该领域的名字,所以此次会议也被普遍认为是 AI 的诞生之日算法
1956 – 1974 年,是人工智能的黄金年代,对于人工智能理论和程序的成果让人们充满了乐观和热情,甚至有研究人员乐观地认为不到 20 年就能够建造一台彻底智能的机器,各个政府、公司也投入了大量的资金和人力参与人工智能的研发。1958 年康奈尔航空实验室的 Frank Rosenblatt 发明了被叫作感知器(perceptron)的机器(程序),从如今来看,它其实就是一个简单的二元线性分类器的监督式机器学习算法,可是在当时能够识别图像再加上美国军方的参与也引发了很大的轰动和争议网络
1974 – 1980 年,出现了第一次 AI 寒冬,AI 受到了批判和资金困难,面对遥遥无期的智能机器人们当初的乐观和热情受到了打击,再加上 Marvin Minsky 对感知机的毁灭性批判,致使神经网络(链接主义 connectionism)领域停工了几乎十年app
1980 – 1987 年,AI 迎来了繁荣期,专家系统(expert systems)的出现让知识称为主流人工智能研究的焦点,各个政府和公司也开始了人工智能资金的支持。1982 年 John Hopfield 证实了 Hopfield 神经网络能够以一种全新的方式学习和处理信息,几乎同时,Geoffrey Hinton 和 David Rumelhart 推广了一种训练神经网络的方法,即著名的反向传播算法(backpropagation),这两项发现帮助了连结主义领域的复兴机器学习
1987 – 1993 年,出现了第二次 AI 寒冬,专家系统虽然有用但仅限于少数特殊状况,AI 资金被一次次削减,不少 AI 公司倒闭、破产或被收购函数
1993 – 2011 年,是 AI 的冷静期,计算机的工程师们开始更加谨慎地投入人工智能研究,将几率和决策论引入 AI,专一于解决数据挖掘、语音识别、医学诊断、搜索引擎等子问题,工程师们甚至有意避免使用人工智能术语
2011 年至今,随着深度学习、大数据和简易人工智能的研究与应用,人工智能更关注于解决一些特定的问题。其中深度学习(特别是深度卷积神经网络和循环神经网络)的进步推进了图像和视频处理、文本分析、甚至语音识别的进步和研究,深度学习是机器学习的一个分支,它使用具备不少处理层的深度图来模拟数据中的高级抽象,根据通用近似定理(Universal approximation theorem),神经网络不须要太多深度就能够逼近任意连续函数工具
卷积神经网络(convolutional neural network)通常简写成 CNN 或 ConvNet,是用来分析视觉图像最经常使用的一类深度神经网络,它受到生物过程的启发,由于神经元之间的模式相似于动物视觉皮层的组织,皮质神经元仅仅对视野的限制区域的刺激作出反应(这个区域也被称为 receptive field),不一样神经元的 receptive field 部分重叠以即可以覆盖整个视野
卷积是分析数学中的一种积分运算,在图像处理中能够进行特征值的处理,以便消除噪声和特征加强
学习
循环神经网络(recurrent neural network)通常简写成 RNN,是节点之间的链接造成沿时间序列的有向图的一类神经网络,与前馈神经网络(feedforward neural networks)不一样的是,RNN 能够经过内部状态来处理输入序列,这使得它适用于处理未分段、连续手写识别或语音识别等任务
根据咱们以前的了解,咱们须要花费大量的时间在特征工程和训练权重上,那有没有可能不须要这些前提条件甚至不须要训练一个模型就能执行任务呢?权重不可知神经网络(Weight Agnostic Neural Networks)给出了答案,固然能够
人工智能之路充满了高潮和低谷,也充满了赞许和争议,值得欣慰的是,人们终于冷静了下来,再也不绞尽脑汁地去创造意识,而是将机器学习这一子领域重视起来并应用于生活中,让机器学习这一领域的研究成果改善世界,改善人们的生活方式
机器学习有不少有趣的应用,如咱们上面说的 Sketch-RNN 能够画画,还有些模型能够写歌,能够写小说,能够给图片上色,甚至能够根据一段音频学习发音,根据一张图片生成视频,只要咱们把它用在正确的地方,它就能给咱们带来乐趣和帮助