电子设备散热技术详解

图片描述

随着5G、人工智能、物联网、智慧城市的蓬勃发展以及大数据、云计算技术的深刻发展和应用,做为数据计算、存储或链接交换的基础支撑与驱动技术进步的基石,数据中心是中国推动新一代信息技术产业发展的关键资源,数据中心的发展将持续强劲增加。

CPU频率更高!
计算速度更快!
图像处理更强!服务器

服务器能力的递增,随之而来的就是总体功耗的上涨;而机房布局面积限定与机架尺寸限定使得服务器的体积不能有太大的变化,要在有限的空间里装进无限可能,服务器只能在“功耗胖子”的路上越走越远······网络

功耗的增长必然会致使服务器的散热需求的增长,那么这个愈来愈胖的家伙怎么才能进行有效地散热呢?架构

相信你们都会有这样的生活经验,在炎炎夏日中咱们如何才能温馨惬意?
最初的办法就是找个树荫,晒不到就凉快了!
若是仍是热?那就扇扇子!
再不行?那就开空调!
依然不行?那就直接去冲个凉吧!运维

电子设备的散热设计也是类似的历程,最初的天然散热设备只要找个温度不高的使用环境就能很好的工做了,散热设计?ME随便摆一下就OK了!布局

天然扇热设备
天然扇热设备性能

当慢慢天然散热搞不定的时候,风冷散热模式上线,系统里放几颗风扇、总体风道划分,散热问题就能解决,轻松加愉快!大数据

风冷散热设备
风冷散热设备云计算

再后来电子设备尤为是服务器的需求量增大,集群部署能更好的运营管理,数据中心机房要维持良好的设备运行环境,机房空调就必不可少,不管集中送风仍是冷水列间,机房环境温度低了,服务器也就安生了!人工智能

传统数据中心制冷流程图
传统数据中心制冷流程图spa

当前电子设备的功耗密度已是最初的几倍甚至十几倍,设备不断更新迭代,但机房无法跟上更新的节奏,部署密度受限、机房供风不足、总体PUE太高等这些问题亟待解决;对服务器端,功耗明显上升的都是个别部件,整个系统热岛现象明显,受限于结构空间,只能不断的加大系统风量,就要求风扇的转速愈来愈高,伴随的就是震动强、噪声高、功耗大;面对这些问题,风冷散热模式捉襟见肘,用冷水冲个凉吧!

数据中心液冷机房
数据中心液冷机房

工质在散热设计中扮演搬运工的角色,搬运工人数可理解为密度,单人每次负重量理解为比热容C,单位时间内搬运的次数就是换热系数h;空气的比热容约为1.0KJ/(KgK)、换热系数20~100 W/(m2K)、密度约为1.3g/L,而水的比热容约为4.0KJ/(Kgk)、换热系数200~1000 W/(m2K)、密度约为1Kg/L;简单换算工做效率能够获得,风冷至关于一我的搬、一次搬运一个箱子、单位时间搬运20次,而水冷就至关于770人搬、每人一次搬运4个箱子,每人单位时间搬运200次,理论上是风冷的3万倍!实际运行中因各种限制,不会达到这么大的差距,但液冷的散热效率也是风冷的几千倍。

液冷的方式有多种,主要能够概括为浸没式、喷淋式、冷板式三个大类;

  • 浸没式:将整个服务器直接浸泡在工做介质中,根据工质工做状态可细分为非相变和相变两类;

图片描述

  • 喷淋式:工质经过服务器上盖板,直接滴漏或喷射在服务器的热源上,再经过服务器底壳收集运出,一般工质不发生相变;

喷淋式液冷服务器
喷淋式液冷服务器

  • 冷板式:工质一般选用纯水,利用管路输送进服务器,再经过冷板与系统热源发生换热后导出服务器。

冷板式液冷服务器

冷板式液冷服务器

综合考虑机房运维、系统性能、上线风险等方面,目前容易接受且应用最多的是冷板式液冷模式;根据循环架构的不一样,又可分为开式循环系统和闭式循环系统。

闭式系统是自循环的小系统,最多见的应用是PC主机箱液冷,透明机箱加带色的工质,系统一运转,很是炫酷:

闭式循环系统系统&原理
闭式循环系统系统&原理

与闭式循环系统相比,开式系统对机房节可能更有帮助。它可以将热量转移至室外进行散热,减小机房的空调用量,下降总体PUE。

系统一般划分红一次侧和二次侧两部分,一次侧为机房供水,包括室外的干冷器和冷水机组;二次侧为机房内布局部分,包括供液环路和服务器内部流道;两个部分经过CDU(Coolant Distribution Unit冷量分配单元)中的板式换热器发生间壁式换热,工质不作混合。

开式循环系统
开式循环系统

冷板式液冷服务器主要由快速接头、管路和冷板组成:

  • 快速接头能够实现带压插拔维护服务器,水路的自动断开和导通;
  • 管路负责水路的运输工做,在服务器内进行流道设计;
  • 液冷板的做用是提供冷水与热源之间换热的场所,内部有各种流道设计应对不一样使用场景。

结语

根据DCFF发布的《中国数据中心能源使用报告2018》,截止2018年末,中国大小数据中心总量在40万个以上,在线使用服务器数量超过1200万台,年增加率在13.4%~17.7%之间,全部服务器及网络设备耗电量约324.4亿度电,占全社会总用电量1%,随着数据中心的数量及服务器保有量增长,该比例会持续增大,达到或接近美国数据中心社会总用电量占比的1.5%~2%水平。

初步评估,液冷机房的PUE能够作到1.1左右,即324.4亿度电须要的散热配套设备功耗为32.44亿度电,而当前较好的风冷机房PUE平都可以作到1.4左右,即散热配套设备功耗为129.76亿度电;液冷一年能够节省97亿度电!至关于千万级人口大城市的年均居民用电总量。

因为其回液温度明显高于传统空调系统回液,废热品味显著提升,能够大幅度提高热回收应用价值,在将来规划利用新型数据中心余热回收技术,为需求场所提供绿色清洁的热源,从而达到能源的高效与绿色化应用。


京东云AIDC(AI/Alliances+IDC),即京东云在IDC业务领域联合最广大的IDC渠道商,依托京东云自建骨干网,造成一个遍布全国的资源大网,充分知足客户对地理、时延等方面的需求。京东云AIDC除包括传统IDC如机柜租赁、带宽等产品外,还包括丰富的增值服务产品、智能化产品、云产品以及定制化产品。再结合京东公有云丰富的产品线,AIDC能够为客户提供私有云托管、专有云、混合云、云灾备等总体解决方案。

点击了解

图片描述

相关文章
相关标签/搜索