LVS创始人,淘宝网技术委员会主席,淘宝网核心工程师章文嵩先生前端
本文侧重介绍淘宝网后台的图片存储系统架构、包括TFS集群文件系统,以及前端处理服务器架构。该系统前端CDN架构,以及淘宝网在节能服务器应用方面的探索,请参考: 淘宝商城286亿图片访问的CDN架构全解析 教你省钱!淘宝总结节能服务器应用场景git
解决海量并发小文件的系统噩梦算法
对于淘宝网这类型访问量极高的电子交易网站来讲,对图片系统的要求和平常的照片分享彻底不在一个级别。平常照片分享每每集中在几个有限的亲朋好友之间,访问量不会特别高,而淘宝网商铺中的商品照片,尤为是热门商品,图片的访问流量实际上是很是大的。并且对于卖家来讲,图片远胜于文字描述,所以卖家也格外看重图片的显示质量、上传时间、访问速度等等问题。根据淘宝网的流量分析,整个淘宝网流量中,图片的访问流量会占到90%以上,而主站的网页则占到不到10%。后端
淘宝网电子商城首页截图,淘宝网的后端系统上保存着286亿多个图片文件,淘宝网总体流量中,图片的访问流量要占到90%以上。且这些图片平均大小为17.45KB,小于8K的图片占总体图片数量61%,总体系统容量的11%缓存
与此同时,这些图片的存储与读取还有一些头疼的要求:例如,这些图片要求根据不一样的应用位置,生成不一样大小规格的缩略图。考虑到多种不一样的应用场景以及改版的可能性,一张原图有可能须要生成20多个不一样尺寸规格的缩略图。安全
淘宝总体图片存储系统容量1800TB(1.8PB),已经占用空间990TB(约1PB)。保存的图片文件数量达到286亿多个,这些图片文件包括根据原图生成的缩略图。平均图片大小是17.45K;8K如下图片占图片数总量的61%,占存储容量的11%。
这就给淘宝网的系统带来了一个巨大的挑战,众所周知,对于大多数系统来讲,最头疼的就是大规模的小文件存储与读取,由于磁头须要频繁的寻道和换道,所以在读取上容易带来较长的延时。在大量高并发访问量的状况下,简直就是系统的噩梦。性能优化
分析自主研发和商用系统的经济效益服务器
淘宝网成立于2003年,在整个系统的构建和规划上也作过至关多的尝试和探索。网络
下图是淘宝网2007年以前的图片存储系统。淘宝网以前一直采用的商用存储系统,应用NetApp公司的文件存储系统。随着淘宝网的图片文件数量以每一年2倍(即原来3倍)的速度增加,淘宝网后端NetApp公司的存储系统也从低端到高端不断迁移,直至2006年,即时是NetApp公司最高端的产品也不能知足淘宝网存储的要求。
淘宝网2007年之前的图片存储系统架构图,因为淘宝网图片速度已每一年2倍的速度增加,商用系统已经彻底不能知足其存储需求,目前淘宝网采用自主研发的TFS集群文件系统来解决海量小图片的读取和访问问题
章文嵩博士在这里总结了几点商用存储系统的局限和不足:
首先是商用的存储系统没有对小文件存储和读取的环境进行有针对性的优化;其次,文件数量大,网络存储设备没法支撑;另外,整个系统所链接的服务器也愈来愈多,网络链接数已经到达了网络存储设备的极限。此外,商用存储系统扩容成本高,10T的存储容量须要几百万¥,并且存在单点故障,容灾和安全性没法获得很好的保证。
谈到在商用系统和自主研发之间的经济效益对比,章文嵩博士列举了如下几点经验:
1.商用软件很难知足大规模系统的应用需求,不管存储仍是CDN仍是负载均衡,由于在厂商实验室端,很难实现如此大的数据规模测试。
2.研发过程当中,将开源和自主开发相结合,会有更好的可控性,系统出问题了,彻底能够从底层解决问题,系统扩展性也更高。
自主研发和采用商用系统的经济效益对比
3.在必定规模效应基础上,研发的投入都是值得的。上图是一个自主研发和购买商用系统的投入产出比对比,实际上,在上图的交叉点左边,购买商用系统都是更加实际和经济性更好的选择,只有在规模超过交叉点的状况下,自主研发才能收到较好的经济效果,实际上,规模化达到如此程度的公司其实并很少,不过淘宝网已经远远超过了交叉点。
4.自主研发的系统可在软件和硬件多个层次不断的优化。
TFS 1.0版本的集群文件系统
从2006年开始,淘宝网决定本身开发一套针对海量小文件存储难题的文件系统,用于解决自身图片存储的难题。到2007年6月,TFS(淘宝文件系统,Taobao File System)正式上线运营。在生产环境中应用的集群规模达到了200台PC Server(146G*6 SAS 15K Raid5),文件数量达到上亿级别;系统部署存储容量: 140 TB;实际使用存储容量: 50 TB;单台支持随机IOPS 200+,流量3MBps。
淘宝集群文件系统TFS 1.0初版的逻辑架构,TFS最大的特色就是将一部分元数据隐藏到图片的保存文件名上,大大简化了元数据,消除了管理节点对总体系统性能的制约,这一理念和目前业界流行的“对象存储”较为相似。
图为淘宝集群文件系统TFS 1.0初版的逻辑架构:集群由一对Name Server和多台Data Server构成,Name Server的两台服务器互为双机,就是集群文件系统中管理节点的概念。
• 每一个Data Server运行在一台普通的Linux主机上
• 以block文件的形式存放数据文件(通常64M一个block)
• block存多份保证数据安全
• 利用ext3文件系统存放数据文件
• 磁盘raid5作数据冗余
• 文件名内置元数据信息,用户本身保存TFS文件名与实际文件的对照关系–使得元数据量特别小。
淘宝TFS文件系统在核心设计上最大的取巧的地方就在,传统的集群系统里面元数据只有1份,一般由管理节点来管理,于是很容易成为瓶颈。而对于淘宝网的用户来讲,图片文件究竟用什么名字来保存实际上用户并不关心,所以TFS在设计规划上考虑在图片的保存文件名上暗藏了一些元数据信息,例如图片的大小、时间、访问频次等等信息,包括所在的逻辑块号。而在元数据上,实际上保存的信息不多,所以元数据结构很是简单。仅仅只须要一个fileID,可以准肯定位文件在什么地方。
因为大量的文件信息都隐藏在文件名中,整个系统彻底抛弃了传统的目录树结构,由于目录树开销最大。拿掉后,整个集群的高可扩展性极大提升。实际上,这一设计理念和目前业界的“对象存储”较为相似,淘宝网TFS文件系统已经更新到1.3版本,在生产系统的性能已经获得验证,且不断获得了完善和优化,淘宝网目前在对象存储领域的研究已经走在前列。
TFS 1.3版本的集群文件系统
到2009年6月,TFS 1.3版本上线,集群规模大大扩展,部署到淘宝的图片生产系统上,整个系统已经从原有200台PC服务器扩增至440台PC Server(300G*12 SAS 15K RPM) + 30台PC Server (600G*12 SAS 15K RPM)。支持文件数量也扩容至百亿级别;系统部署存储容量:1800TB(1.8PB);当前实际存储容量:995TB;单台Data Server支持随机IOPS 900+,流量15MB+;目前Name Server运行的物理内存是217MB(服务器使用千兆网卡)。
TFS 1.3版本逻辑结构图
图为TFS1.3版本的逻辑结构图,在TFS1.3版本中,淘宝网的软件工做组重点改善了心跳和同步的性能,最新版本的心跳和同步在几秒钟以内就可完成切换,同时进行了一些新的优化:包括元数据存内存上,清理磁盘空间,性能上也作了优化,包括:
彻底扁平化的数据组织结构,抛弃了传统文件系统的目录结构。
在块设备基础上创建自有的文件系统,减小EXT3等文件系统数据碎片带来的性能损耗
单进程管理单块磁盘的方式,摒除RAID5机制
带有HA机制的中央控制节点,在安全稳定和性能复杂度之间取得平衡。
尽可能缩减元数据大小,将元数据所有加载入内存,提高访问速度。
跨机架和IDC的负载均衡和冗余安全策略。
彻底平滑扩容。
在后面“图片服务器部署与缓存”一页中详细介绍了淘宝网整个图片处理系统的拓扑图。咱们能够看到:TFS在淘宝的部署环境中前端有两层缓冲,到达TFS系统的请求很是离散,因此TFS内部是没有任何数据的内存缓冲的,包括传统文件系统的内存缓冲也不存在。
TFS主要的性能参数不是IO吞吐量,而是单台PCServer提供随机读写IOPS。因为你们硬件型号不一样,固然也是由于一些技术保密的缘由,淘宝网很难给出一个参考值来讲明性能。但基本上能够达到单块磁盘随机IOPS理论最大值的60%左右,整机的输出随盘数增长而线性增长。
开发中的TFS2.0与开源TFS
TFS 2.0已经在开发过程当中,主要解决的问题是大文件存储的难题。TFS最先开发的时候针对小文件频繁并发读取的难题而开发,设计的块大小是64MB,意味着每一个文件小于64MB,这对于通常的图片存储来讲彻底足够用了,但对于大文件存储还有一些瓶颈。
TFS 2.0将重点针对大文件跨越块的存储进行优化。此外,还包括SSD、SAS硬盘不一样硬盘特性的应用优化。根据淘宝网的资料数据,SSD的存储成本大约是20¥每GB左右,SAS硬盘的存储成本约在 5-6¥每GB,SATA盘的每GB成本不到1¥。随着对应用性能的要求提高,应用SSD是将来的趋势,针对不一样硬盘的存取特性进行优化是十分必要的。
此外,章文嵩宣布,TFS将在9月份彻底开源,彻底开源则意味着淘宝网将提供全部的源代码,开源版本的TFS将与淘宝网线上应用的系统彻底一致。
图片服务器部署与缓存
下图为淘宝网总体系统的拓扑图结构。整个系统就像一个庞大的服务器同样,有处理单元、缓存单元和存储单元。前面已经详细介绍过了后台的TFS集群文件存储系统,在TFS前端,还部署着200多台图片文件服务器,用Apatch实现,用于生成缩略图的运算。
这里须要补充一点,根据淘宝网的缩略图生成规则,缩略图都是实时生成的。这样作的好处有两点:一是为了不后端图片服务器上存储的图片数量过多,大大节约后台存储空间的需求,淘宝网计算,采用实时生成缩略图的模式比提早所有生成好缩略图的模式节约90%的存储空间,也就是说,存储空间只须要后一种模式的10%;二是,缩略图可根据须要实时生成出来,更为灵活。
淘宝网图片存储与处理系统全局拓扑,图片服务器前端还有一级和二级缓存服务器,尽可能让图片在缓存中命中,最大程度的避免图片热点,实际上后端到达TFS的流量已经很是离散和平均
图片文件服务器的前端则是一级缓存和二级缓存,前面还有全局负载均衡的设置,解决图片的访问热点问题。图片的访问热点必定存在,重要的是,让图片尽可能在缓存中命中。目前淘宝网在各个运营商的中心点设有二级缓存,总体系统中心店设有一级缓存,加上全局负载均衡,传递到后端TFS的流量就已经很是均衡和分散了,对前端的响应性能也大大提升。
根据淘宝的缓存策略,大部分图片都尽可能在缓存中命中,若是缓存中没法命中,则会在本地服务器上查找是否存有原图,并根据原图生成缩略图,若是都没有命中,则会考虑去后台TFS集群文件存储系统上调取,所以,最终反馈到TFS集群文件存储系统上的流量已经被大大优化了。
淘宝网将图片处理与缓存编写成基于Nginx的模块,淘宝网认为Nginx是目前性能最高的HTTP服务器(用户空间),代码清晰,模块化很是好。淘宝网使用GraphicsMagick进行图片处理,采用了面向小对象的缓存文件系统,前端有LVS+Haproxy将原图和其全部缩略图请求都调度到同一台Image Server。
文件定位上,内存用hash算法作索引,最多一次读盘。写盘方式则采用Append方式写,并采用了淘汰策略FIFO,主要考虑下降硬盘的写操做,没有必要进一步提升Cache命中率,由于Image Server和TFS在同一个数据中心,读盘效率仍是很是高的。
演讲人简介
章文嵩博士是淘宝网的研究员,主要负责基础核心软件研发、推动网络软硬件方面的性能优化、搭建下一代高可扩展低碳低成本淘宝电子商务基础设施。他也是开放源码及Linux内核的开发者,著名的Linux集群项目--LVS (Linux Virtual Server)的创始人和主要开发人员,LVS集群代码已在Linux 2.4和2.6的官方内核中。在设计和架构大型系统、系统软件开发、Linux操做系统、系统安全和软件开发管理上有着丰富的经验。他一直在自由软件的开发上花费时间,并以此为乐。
章文嵩博士
http://storage.it168.com/a2010/0829/1096/000001096373.shtml