欢迎你们前往腾讯云社区,获取更多腾讯海量技术实践干货哦~前端
做者:kevinxiaoyu,高级研究员,隶属腾讯TEG-架构平台部,主要研究方向为深度学习异构计算与硬件加速、FPGA云、高速视觉感知等方向的构架设计和优化。“深度学习的异构加速技术”系列共有三篇文章,主要在技术层面,对学术界和工业界异构加速的构架演进进行分析。git
做为通用处理器,CPU (Central Processing Unit) 是计算机中不可或缺的计算核心,结合指令集,完成平常工做中多种多样的计算和处理任务。然而近年来,CPU在计算平台领域一统天下的步伐走的并不顺利,可归因于两个方面,即自身约束和需求转移。github
(1)自身约束又包含两方面,即半导体工艺,和存储带宽瓶颈。
一方面,当半导体的工艺制程走到7nm后,已逼近物理极限,摩尔定律逐渐失效,致使CPU再也不能像之前同样享受工艺提高带来的红利:经过更高的工艺,在相同面积下,增长更多的计算资源来提高性能,并保持功耗不变。为了追求更高的性能,更低的功耗,来适应计算密集型的发展趋势,更多的设计经过下降通用性,来提高针对某一(或某一类)任务的性能,如GPU和定制ASIC。编程
另外一方面,CPU内核的计算过程须要大量数据,而片外DDR不只带宽有限,还具备较长的访问延迟。片上缓存能够必定程度上缓解这一问题,但容量极为有限。Intel经过数据预读、乱序执行、超线程等大量技术,解决带宽瓶颈,尽量跑满CPU,但复杂的调度设计和缓存占用了大量的CPU硅片面积,使真正用来作运算的逻辑,所占面积甚至不到1%[1]。同时,保证程序对以前产品兼容性的约束,在必定程度上制约了CPU构架的演进。缓存
(2)需求转移,主要体如今两个逐渐兴起的计算密集型场景,即云端大数据计算和深度学习。尤为在以CNN为表明的深度学习领域,准确率的提高伴随着模型深度的增长,对计算平台的性能要求也大幅增加,如图1所示[2]。相比于CPU面对的通用多任务计算,深度学习计算具备如下特色:任务单一,计算密度大,较高的数据可复用率。对计算构架的要求在于大规模的计算逻辑和数据带宽,而不在于复杂的任务调度,所以在CPU上并不能跑出较好的性能。服务器
图1.1 深度学习的发展趋势:更高精度与更深的模型,伴随着更高的计算能力需求。架构
基于上述缘由,CPU构架在深度学习、大数据分析,以及部分嵌入式前端应用中并不具有普适性,此时,异构计算开始进入人们的视野。本文主要针对深度学习的计算构架进行讨论。分布式
在讨论以前,先上一张经典的类比图:分别以“可编程能力/灵活性”和“开发难度/定制性/计算效率/能耗”为横轴和纵轴,将CPU与当前主流异构处理器,如GPU、FPGA、专用ASIC等进行比较。布局
图1.2 计算平台选择依据性能
经过前文分析可知,CPU最大限度的灵活性是以牺牲计算效率为代价。GPU将应用场景缩减为图形图像与海量数据并行计算,设计了数千计算内核,有效的提高了硅片上计算逻辑的比例,但随之而来的带宽需求也是至关恐怖的。为了解决这一问题,一方面,为了保证通用性,兼容低数据复用的高带宽场景,GPU内部设计了大量分布式缓存;另外一方面,GPU的显存始终表明了当前可商用化存储器的最新成果。显存采用的DDR始终领先服务器内存1~2代,并成为业界首先使用HBM的应用。所以,相比于CPU,GPU具有更高的计算性能和能耗比,但相对的通用性和带宽竞争使其能耗比依然高于FPGA和ASIC,而且性能依赖于优化程度,即计算模型和数据调度要适配GPU的底层架构。
FPGA和ASIC则更倾向于针对某一特定应用。无疑,专用ASIC具备最高的计算效率和最低的功耗,但在架构、设计、仿真、制造、封装、测试等各个环节将消耗大量的人力和物力。而在深度学习模型不断涌现的环境下,当还没有出现肯定性应用时,对CNN、RNN中的各个模型分别进行构架设计甚至定制一款独立ASIC是一件很是奢侈的事情,所以在AI处理器的设计上,你们的作法逐渐一致,设计一款在AI领域具有必定通用性的FPGA/ASIC构架,称为领域处理器。使其能够覆盖深度学习中的一类(如常见CNN模型),或多类(如CNN+RNN等)。
2.1 AI处理器的发展和现状
伴随着深度学习模型的深化和算力需求的提高,从学术界兴起的AI处理器方案已经迅速蔓延到工业界。目前,各大互联网、半导体、初创公司的方案主要分为云端、嵌入式端两类(或称为云侧和端侧),可概括如表1.1所示若感兴趣可转到唐杉同窗维护的列表:https://basicmi.github.io/Deep-Learning-Processor-List/
表1.1 深度学习处理器方案列表
图1.3 AI处理器的发展和设计目标
AI处理器的发展过程如图1.3所示。在早期,对AI处理器架构的探讨源于学术界的半导体和体系架构领域,此时模型层数较少,计算规模较小,算力较低,主要针对场景为嵌入式前端;随着模型的逐渐加深,对算力的需求也相应增长,致使了带宽瓶颈,即IO问题(带宽问题的成因详见2.2节),此时可经过增大片内缓存、优化调度模型来增长数据复用率等方式解决;当云端的AI处理需求逐渐浮出水面,多用户、高吞吐、低延迟、高密度部署等对算力的需求进一步提高。计算单元的剧增使IO瓶颈越发严重,要解决须要付出较高代价(如增长DDR接口通道数量、片内缓存容量、多芯片互联等),制约了处理器实际应用。此时,片上HBM(High Bandwidth Memory,高带宽存储器)的出现使深度学习模型彻底放到片上成为可能,集成度提高的同时,使带宽再也不受制于芯片引脚的互联数量,从而在必定程度上解决了IO瓶颈,使云端的发展方向从解决IO带宽问题,转向解决算力伸缩问题。
到目前为止,以HBM/HMC的应用为标志,云端高性能深度学习处理器的发展共经历了两个阶段:
1.第一阶段,解决IO带宽问题;
2.第二阶段,解决算力伸缩问题。
2.2 带宽瓶颈
第一阶段,囊括了初期的AI处理器,以及至今的大部分嵌入式前端的解决方案,包括第一代TPU、目前FPGA方案的相关构架、寒武纪ASIC构架,以及90%以上的学术界成果。欲达到更高的性能,一个有效的方法是大幅度提高计算核心的并行度,但算力的扩张须要匹配相应的IO带宽。例如,图1.4中的1个乘加运算单元若运行在500MHz的频率下,每秒须要4GB的数据读写带宽;一个典型的云端高性能FPGA(以Xilinx KU115为例)共有5520个DSP,跑满性能须要22TB的带宽;而一条DDR4 DIMM仅能提供19.2GB的带宽(上述分析并不严谨,但不妨碍对带宽瓶颈的讨论)。所以在第一阶段,设计的核心是,一方面经过共享缓存、数据调用方式的优化等方式提高数据复用率,配合片上缓存,减小从片外存储器的数据加载次数。另外一方面经过模型优化、低位宽量化、稀疏化等方式简化模型和计算。
图1.4 一个乘加单元及其带宽计算(累加值一般与输出共用,故未计入带宽)
2.3 算力伸缩
尽管片上分布的大量缓存能提供足够的计算带宽,但因为存储结构和工艺制约,片上缓存占用了大部分的芯片面积(一般为1/3至2/3),限制了算力提高下缓存容量的同步提高,如图1.5所示。
图1.5 芯片中片上缓存的规模,上图为Google第一代TPU,蓝色部分为缓存区域,占用芯片面积的37%;下图为寒武纪公司的DiaoNao AI ASIC设计,缓存占面积的66.7%(NBin+NBout+SB)。
而以HBM为表明的存储器堆叠技术,将本来一维的存储器布局扩展到三维,大幅度提升了片上存储器的密度,如图1.6所示,标志着高性能AI处理器进入第二阶段。但HBM的须要较高的工艺而大幅度提高了成本,所以仅出如今互联网和半导体巨头的设计中。HBM使片上缓存容量从MB级别提高到GB级别,能够将整个模型放到片上而再也不须要从片外DDR中加载;同时,堆叠存储器提供的带宽再也不受限于芯片IO引脚的制约而获得50倍以上的提高,使带宽再也不是瓶颈。此时,设计的核心在于高效的计算构架、可伸缩的计算规模、和分布式计算能力,以应对海量数据的训练和计算中的频繁交互。
图1.6 HBM与片内垂直堆叠技术
目前AI构架已从百家争鸣,逐渐走向应用。在后续的篇幅中,将对这两个阶段进行论述。
[1] 王逵, “CPU和GPU双低效,摩尔定律以后一万倍 ——写于TPU版AlphaGo重出江湖之际”,新智元,2017.
[2] Jeff Dean, "Keynote: Recent Advances in Artificial Intelligence via Machine Learning and the Implications for Computer System Design", Hotchips2017, 2017.
深度学习的异构加速技术(二):螺狮壳里作道场
深度学习的异构加速技术(三):互联网巨头们“心水”这些 AI 计算平台
给 AI 换个“大动力当心脏”之通用 CNN 加速设计
此文已由做者受权腾讯云技术社区发布,转载请注明文章出处
原文连接:https://cloud.tencent.com/community/article/244743