关于-如何为虚拟化环境选择合适的存储设备?

      好在第四季度不忙了,闲下来写点东西,我想谈谈存储选型方面,针对于虚拟化环境。安全

      现现在不管是服务器虚拟化,仍是桌面虚拟化逐渐侵占数据中心,随之市场占有率用户有足够的信心转为虚拟化技术,我本身亲身接触的客户不少都在筹备使用更多虚拟化资源取代已有的X86硬件架构,使资源可以更高效利用,可是问题来了?服务器

      使用虚拟化(这里尤为指的是服务器虚拟化,桌面虚拟化)若是没有一台共享存储,那么虚拟化环境不少高级特性就没法使用,例如vSphere:网络


vMotion,将运行中的虚拟机从一个主机迁移到另外一个主机;
Storage vMotion,将运行中的虚拟机的磁盘文件从一个vSphere数据存储迁移到另外一个数据存储;
存储分布式资源调度 (SDRS),当vSphere数据存储运行缓慢(高延迟)或存储空间不足时,从新平衡虚拟机磁盘文件;
vSphere高可用性,依靠此特性,当主机失效时,虚拟机能够自动在另外一主机上启动;
架构


       若是采购的存储不管是性能,仍是容量各方面过剩,意味着下降投资回报率,另外一方面,若是存储稳定性,性能,容量在短期内出现瓶颈,那么会影响整个业务系统,甚至形成安全隐患。分布式

       所以,我会说共享存储在虚拟化环境或者虚拟化集群占有很重要的位置,那么企业如何选择一台适合本身的存储呢?这将是博文内容的核心部分。ide

稍后我会按照八个方面来阐述本身一些卑微看法(排名不分前后)。
工具


第一个方面
NAS仍是SAN?性能


      NAS可以提供更普遍的协议,除了提供给VMware NFS还能够把空间以CIFS,SMB,NFS协议提供给其它的业务系统,达到高效利用。首先确认您的虚拟化产品是否支持NAS,而且在官方的厂商兼容性列表,vSphere,Hyper-V,KVM,Citrix等等。
测试

      SAN属于独享的“块”结构设备,通俗来说,前者是经过地址映射了一块空间,而SAN则是把一颗实体的设备映射给主机,咱们甚至可以在设备管理器看到这颗磁盘驱动器,而且安装系统在这上面(SAN boot),相同带宽,磁盘特征的状况下,块结构设备必然更快速。由于不须要再存储底层构建一个NAS文件系统,而是作完RAID以后,直接以逻辑磁盘的方式映射给主机,在响应速度来说,可以提供更大的IOPS,而这也是虚拟化环境迫切需求的。

      在选择的过程当中,我比较推荐后者,也就是SAN,不管是IP SAN仍是FC SAN。(DAS由于其不能扩充到存储网络,不能适应虚拟化集群,尽量不做为考虑范围);spa

     首先,“块”结构的设备每每能够在存储阵列作一些更高级的功能,而这些功能对于NAS来讲很难实现。例如:在虚拟化环境中的一个卷上面,已经部署了500台虚拟机-VM,若是咱们须要再部署500台,那将耗费很长时间,我知道的厂商存储产品,哪怕是低端的存储阵列都支持各类类型的快照技术,也就说咱们对这个LUN执行一次快照或者说克隆,就会产生一个新的副本,而这个副本映射给虚拟化主机,就会新产生500个VM,这个速度比在虚拟机克隆快几十倍,甚至上百倍,彻底透明,不消耗应用主机性能。又或者存储层的精简配置技术,持续数据保护技术等等。

      有的朋友可能会说,SAN的成本远远高于NAS。在2014年的今天,我彻底不赞同,严谨来说,我认为没有可比性。SAN可使用千兆的iSCSI,这个彻底能够利用现有的网络环境,无需改造,只不过链接交换机的网线再也不是以太网协议,而是SCSI协议。创建一套10Gb的NAS环境与全FC SAN 8Gbps的环境预算能够说是旗鼓至关,而光纤协议可以提供更高的响应速度。

NAS以太网的带宽及没秒多少兆?很好换算,而截图是光纤协议的理论速率:

wKiom1SZLEiR8e6qAAEPr8tVdDY510.jpg

实际:

wKiom1SZLJaSm3QhAAEKRJeljck880.jpg



第二个方面
磁盘类型:


      首先,近线SAS比较SATA磁盘,对于虚拟化环境来讲都是同样的,千万别有优越感。由于虚拟化环境不少时候要求的磁盘的IOPS,也就是延迟,近线SAS磁盘响应速度和SATA是同样的,只是带宽高一点。(SATA/SAS 6Gb的接口读或写的速率无非是500-400MB,这个速率应用程序不少时候吃不掉)。

wKiom1SZLYHDi7A-AAJpn7bN4aI099.jpg


       从上图可以看到,SAS磁盘的IOPS高不少,而FC磁盘已经渐渐的淡出市场。一台中端的存储阵列,11颗SATA磁盘,RAID 5的IOPS大概是4000左右,100%RANDOM,70%写。而SAS磁盘的存储阵列,同等基准测试可以到达7000 IOPS。若是一个VM在苛刻模式下需求80个IOPS,那么这台SAS存储阵列能够多承载38台VM。

      值得一提的是,不管是VDI仍是服务器虚拟化,在建设时期,根据各部门应用去收集IOPS,是整个项目中最头疼的部分;可是,这个环节不能遗漏,性能过剩意味用户更多的投入,或者集成商更少的利润,若是性能不足则会致使更多的问题。
      所以,存储阵列最好支持更多类型的磁盘混合使用,甚至是SSD,这样在从此扩展会很方便。一个很好的实践经验,若是您已经购买了10颗SATA磁盘,在存储阵列设置了一个RAID 5,若是发现性能不足,或者虚拟程序报磁盘延迟很大,您能够从新建立RAID,例如3个RAID 5?或者2个RAID 10,这样可以在不投入成本的基础上改善延迟(请参考我另外一篇博文:关于SAN-存储RAID组及RAID级别设置)。
一些存储产品提供高级特性-存储自动分层,这个内容稍后再聊。
      另外,您计划购入SSD,最好选择保修时间更久的厂商,好比5年或者更长,重复写入致使SSD寿命加快,能有一个更久的质保期由为重要。尽可能不要选择PCIe类型的SSD,由于一般须要登录到软件界面才能知道SSD是否损坏,而SAS,或者SATA接口,或者NVMe类型的SSD,可以较为简单的目测的磁盘是否报警闪灯,更换也比较简单,基本能够在不停机状况下操做。



第三个方面
带宽:


      不少用户认为更大的带宽,意味着虚拟机更快速的迁移,克隆,和数据复制。其实不少时候不是这样。在SAN的环境中,8Gb的FC若是可以跑到720MB/s,而咱们的SAS磁盘接口读或者写仅仅是500-400MB/s,那么即便光纤链路扩展到16Gb又有什么用呢?哪怕是在一个有着几百台服务器虚拟化的环境,720MB/s也是彻底够用的,IO延迟则是反应了磁盘响应速度不够快。因此在以前要充分的计算,多少个VM是跑文件数据,相似OLAP,多少VM是运行OLTP类型的业务。

      个人经验:对于10台如下的虚拟机,偏向交易类型的业务,2个千兆的iSCSI作聚合也是没问题的,无非是虚拟机迁移与克隆的时候会慢一些。

wKioL1SZL6byRmvXAABpTNoMrbo548.jpg

       在NAS方面,可选的带宽有1Gb/10Gb光纤以太网,40Gb的NAS对外提供服务的我还没见到,估计很快发布。
      在SAN方面,主流的4/8Gb FC,16Gb FC会马上发布,同时还有1Gb/10/40/56Gb的iSCS;
INFINIBAND不易扩展,我不推荐。


第四个方面

存储阵列是否支持高级特性:


      在2014年的今天,存储系统已经不只仅致力于存储数据,它们尽量的经过一些高级特性改善应用层面的困境,使应用主机更专一于生产。在存储选型的过程当中,应该充分考虑业内前沿的存储技术,并将其所用或者为后期作准备。例如:快照/克隆技术,持续数据保护技术,存储层的精简配置技术,持续数据保护,QoS,存储阵列之间的集群和实施复制。这些技术可能会在后期大规模的虚拟化集群扩展减小没必要要的投入。



第五个方面
与虚拟化产品特性集成的力度:


      虚拟化产品愈来愈智能,但有些先进的特性必须由存储配合才能发挥效应,您选购的存储符合这些特性吗?
      Hyper-V 2012 Server的Offload Data Transfer-ODX,全自动的UNMAP让我很是着迷,另外VMware的VAAI:Full copy,Zeroed,Scalable Lock Management,Thin Provisioning Stun,若是您了解这里面每个特性就知道这是很是有价值的,尤为是Full copy。在以前您须要去虚拟化厂商兼容性指南进行确认,您的存储是否已经符合这些特性?

wKiom1SZMBHCaV8aAABhMsVE6r8101.jpg

vSphere的VASA致力于够经过vCenter平台统一管理和部署,其中还包括了存储系统,您选购的存储是否支持这一特性,若是YES,是否包含许可费用?请验证这一点!!!



第六个方面
具备组件冗余:


      存储设备在IT环境中包含了最多的故障点,尤为是在扩展了更多的柜子和磁盘的时候,在故障后,或者维护期间,可否提供组件的故障转移很是重要。对于单台共享存储,有条件必定考虑双控制器,独立的控制器caching电池保护机制。电源,磁盘,热更换。支持多条冗余的对外服务端口。支持管理员受权登录。支持更多种类型的RAID级别。


第七个方面
规格对比:


      集成商常常会给用户,在同一需求中提供多个厂商产品进行选择。这些产品每每价格相差很少,磁盘特征相同,但仍然有不少内容值得关注。
这里依次是:

控制器的caching配置多大容量(或可以支持多大?),是否对读和写同时提供加速?

对外提供存储服务的端口类型(iSCSI,FC,NAS)包括哪些?配置多少个?支持多少个?

每一年的维护费用/Support费用。哪些功能包含在license,哪些须要额外收费?

同时支持哪些接口特征的磁盘?最大支持多少颗磁盘?



第八个方面
这个算是一个由存储引起的扩展话题:


我不推荐高密度集成式存储。例如:vmware VSAN,或者硅谷新晋厂商NUTANIX;

      第一,VSAN的宣告发布仅仅是2013年,而2014年第二季度正式发布,没有人但愿把本身的数据寄存在一个不成熟的存储环境中,而存储行业目前不是vmware的强项。我我的认为,vmware仅仅是为了弥补宣称的软件定义数据中心中,缺失的那一部分。

      第二,VSAN强调的是充分利用本地资源,减小外部存储网络的建设成本。我见过不少的小型环境用户可能是2台ESX主机,难道为了充分利用服务器本地的几颗磁盘,用户要多购买一台Server作ESX 主机(VSAN至少须要3台ESX SERVER)?而后购买昂贵的SSD?购买额外的license?购买额外的网络设备?我以为这十分不现实。先不说SSD由于caching频繁读写很快报废,用户须要投入两部分精力来管理存储,一部分是内部的VSAN,另外一部分是外部的SAN或者NFS。


       NUTANIX设计基于分布式,硬件绑定性十分刻薄,且成本居高。每当扩展性能,每当扩展容量都必须增长NUTANIX节点来实现,没错,您没有别的路可选。为了高效数据流动,组建一套10Gb或者40/56Gb的INFINIBAND网络十分昂贵。所以我得出的结论,若是单纯为了控标,这个产品很不错,但从用户的实际利益出发,我认为这个产品与软件定义数据中心的趋势彻底违背。


退一步说,没有卖不出去的产品,我也见过一些用户,例如:制造业,医疗,事业单位,他们明确强调数据中心——对他们来说仅仅是一个工具,一个辅助生产的工具,所以要求尽量缩减对数据中心的支出,下降管理复杂程度,简化环境规模,而后投入更多的精力在主营业务。okay,若是是这样的话,这些高密度集成方案或者说非SAN的方案就再好不过了。集成商卖给用户3台设备,既有存储,又有计算资源,而且彻底组件冗余,仅仅占用半个机架,无需庞大的计算网络和存储网络,无需过多的电能消耗与冷却系统,这是我目前可以看到此类方案主要的价值。




The end..j_0057.gif

相关文章
相关标签/搜索