海量数据时代,如何把握人工智能先机?

做者 | 硅谷洞察
来源 | guigudiyixian

赢得人工智能先机的三大法宝:数据+算法+算力。前端

人工智能是一种变革性的技术浪潮,可以帮助每一个行业的用户解决大大小小的问题,从探索宇宙奥秘的科学研究、到惠及民生的健康和精准医疗,再到与生活息息相关的运输和自动驾驶汽车。算法

人工智能的应用场景大到结合大数据和深度学习分析大型强子对撞机产生的大量原始数据;小到给语音助手装上耳朵和脑壳听懂用户的语句,并实现简单的对话或互动。服务器

人工智能那么远,又那么近。网络

能够说,随着技术的不断成熟和普及,人工智能可以赋能咱们来应对各类人类的挑战,科学家能够借助人工智能提升科研的生产力,加快造福全人类的进程;企业也能够经过人工智能的无限潜力创造新的收入来源并提升他们的底线;消费者也能继续看到更多新的应用程序。数据结构

今天硅谷洞察就来给你们分析一下,人工智能已经为各类行业领域带来了哪些转型影响。框架

超级计算机是什么?工具

提到宇宙研究就不得不提用于科学研究的超级计算机。小探最初听到超算这个概念是在《三体》的小说中,大刘有这么一段描述。性能


(2008年出版科幻小说《三体II:黑暗森林》片断)学习

浮点运算的次数表明着计算机的计算实力。而11年前的科幻小说早已被现实超越。在刚刚落幕的国际超算大会公布,位于田纳西州能源部橡树岭国家实验室(ORNL) 由 IBM 制造的超级计算机 Summit 以 148.6 PetaFlops (千万亿次)的HPL记录得到了世界最强的超级计算机称号。简单算一下,Summit计算速度已经达到《三体》中超级计算机的近300倍。测试

科学技术的发展已经超乎咱们的想象,曾经高不可攀的将来也已经到来。

超级计算机,实际上是指众多高性能计算机节点链接在一块儿,统一调度管理,从而实现强大的计算功能。简单的说就是价格在10万元以上的服务器。这些机器主要分布在大学或者科研机构服务的领域很是高精尖,都是关系着人类发展的重要领域,例如全球气候变化,宇宙探测分析、大脑仿真、开发新材料、生物医药、智慧城市等实际问题。

能够看得出来,这些研究的特色是大量数据须要分析模拟得出规律,从而进行预测。若是你须要模拟一大堆无厘头的物体之间的相互关系,就必定须要“高性能计算”。

举个例子,欧洲核子研究中心欧洲核子研究中心的大型强子对撞机(LHC)周长27千米,超过6,000个超导磁体,是世界上最大的机器和最早进的科学仪器。大型强子对撞机可以将质子加速到99.9999991%的光速,并产生很是高的能量碰撞,在某些状况下比咱们的太阳核心高出100,000倍。

这些实验产生了大量的原始数据。大型强子对撞机每秒发生多达10亿次碰撞,每秒产生多达1 PB(1,024太字节或100万千兆字节)的数据流经欧洲核子研究中心的系统——远远超过世界上最重要的研究机构所能存储的数据。就须要使用专有软件以及超强的计算力才能过滤此数据。

气候预测一样须要高性能计算。气候预测,普遍来看就是对全球气流、洋流等等的预测,局限来看就是天气预报。天气预报的基本原理,就是经过气象卫星捕捉地图上每个点的云层和睦流运动轨迹,而后经过大量的计算推导出他们将来的走向。

高性能计算与人工智能深度融合

超算与人工智能的融合将引领下一代计算机体系结构和系统软件应用的发展。

研究代表,运行大型高性能计算应用程序能够经过向现有高性能计算机群(High Performance Computing,简称HPC)工做流程添加深度学习功能来实现显着的效率。深度学习神经网络固有的并行性很是适合高度并行的HPC环境,其中极端的计算性能,大容量内存池和优化的节点间通讯结构能够显着扩展深度学习网络识别结构和模式的能力。

美国能源部科学办公室与加州大学伯克利分校选择与英特尔合做,将深度学习与HPC基础设施相结合,建立了一个15-PetafFlop深度学习系统,用于解决科学模式分类问题。

这个深度学习系统将单个深度学习模型的训练扩展到科里(Cori)超级计算机上多达 9600 个基于英特尔至强融核处理器的节点。该模型可以更有效地从在数据多达 15TB 的气候数据集中提取天气模式。结果证实,处理大型复杂数据集时,将深度学习培训优化并扩展到多核HPC系统具备显著优点。


科里(Cori)超级计算机

除了帮助处理极其复杂的数据以外,使用HPC基础设施进行深度学习的第二个主要好处是大大改善了深度学习算法训练的响应时间。

被评为全球第五快的超级计算机,德克萨斯高级计算中心 (TACC) 将使用英特尔至强铂金 8200 处理器为本身的 Frontera 系统提供动力,支持国家科学基金会资助开展的多层面先进研究。

Frontera 还将整合超过 100TB 的英特尔傲腾数据中心级持久内存,这是该技术第一次在如此大的规模上获得应用。这种将持久内存置于高性能计算系统附近的作法将可以实现极其复杂的模拟、人工智能算法和内存分析。Frontera 将有助于展示在高性能计算系统上进行大规模并行人工智能推理的可能性。

位于德克萨斯高级计算中心的超级计算机Frontera被评为全球第五快的超级计算机

不只在前端的超算中心的应用,瞄准“数据”,勾画AI全栈解决方案的英特尔AI加速技术在商用领域也普遍应用。

科大讯飞是中国最具创新力的公司之一,为通讯、音乐和智能玩具等行业中应用的众多语音产品提供支持。“语音引擎”无疑是科大讯飞的拳头产品之一,它已占据中文语音技术市场70%以上的份额。但更重要的秘诀,实际上是科大讯飞的 AI 核心战略:打造以人工智能为核心的开放平台。

语音识别想要得到更好的识别效果,就须要对框架进行大量的数据训练,这将带来海量的计算工做量。在一项数据训练中,每一万小时的语音数据约产生6000PetaFlops的计算量,这个计算量即使是用超级计算机Summit,也须要近1个小时的工做时长。

人工智能三要素是数据、算法和算力。

对于已经有了大量的数据基础的讯飞AI开放平台,科大讯飞19年的语音研发历程,让他们有本身一套独特的算法。自研了FSMN、DFCNN 等创新的语音识别框架在神经网络、数据结构模型、数据处理方式上,也至关老道。

剩下的核心关键,就是计算力了。海量用户上传来数据后,深度学习须要对数据进行大量的训练。这将带来巨大的计算工做量。科大讯飞意识到深度学习的发展不只须要顶层应用的精进,也离不开底层平台在计算、数据处理和算法优化上的支持。

科大讯飞很清楚,除了传统的深度学习计算平台外,还但愿构建更多的、基于不一样技术方案的深度学习计算平台,增长选择上的多样性。他们须要一套深度定制的人工神经网络专属芯片系统才能支撑住这个巨无霸平台既然找芯片层面的合做商,英特尔成了他们的不二选择。

通过了三年,与英特尔的合做从最开始的硬件与基础设施的支持逐步加深,科大讯飞发现英特尔在人工智能、深度学习上的硬件技术优点和能力强大以外,英特尔经过不断地对核心计算和存储产品更新迭代,对深度训练应用和算法优化,对讯飞AI平台的改进提供了重要助力。在讯飞AI云的真实环境测试中,第二代英特尔至强可扩展处理器已经能让CPU达到甚至超过原来GPU的性能。

如今,双方的深度合做在代码层级展开,不只能够推进科大讯飞训练平台的优化,提高其工做效率,其反馈的需求和经验,也促进了用于人工智能的新一代英特尔至强融核处理器(Knights Mill),以及其余英特尔深度学习软件工具和库的优化。

不得不说,懂算法的科大讯飞与懂计算的英特尔强强联合的模式,构建了一个业界顶级的人工智能开放平台。离能看会想,能听会讲的人工智能,愈来愈近了。

英特尔打破AI理论与现实的壁垒

对于如何更高效地利用和处理数据,全世界范围内的服务提供商和最终用户都看到了人工智能带来的诸多益处。

英特尔对数据处理颇有信心,认为从数据科学工做站到云端,最后再到推理设备,一整套完备的工做流程相当重要,由于这不只关系到数据处理,也关系到数据的移动和存储。

从硬实力到软实力,英特尔不断在本身的全套肌肉中融入智能,加速AI的实践应用。就像他们不断声明的同样,英特尔正积极的向人工智能公司转型。

在刚刚结束的Hot Chips 2019上,英特尔公布了首款AI芯片Nervana 神经网络处理器的技术细节。两款处理器都将用于数据中心,NNP-T 用于云端训练,NNP-I 用于云端推理。

随着AI芯片的推出,以全面AI优化的全栈式解决方案押宝人工智能将来,英特尔的版图彷佛更加完整了。

你以为赢下人工智能时代,企业最须要哪些技巧和实力?欢迎你们留言讨论。

相关文章
相关标签/搜索