最近手头项目接近尾声,但愿花些时间陆续把以往设计经验分享出来,固然,这仅仅是来自我我的的经验。
安全
我会尽可能舍弃些宏观概念,包括项目潜在效益,成本保护等等,由于我以为那只不过是sales 该掌握的。
服务器
关于SAN 的设计-Host 设计:架构
位于整个SAN架构角色,咱们一般会把注意力放在性能上面,固然不否定的说,这也是很重要的,关于应用主机(物理)该如何配置呢?我分享下经验ide
在不少时候,用户由于预算,问我可否配置一台组装的应用服务器,固然内地不少厂商已经很成熟的归入这项业务,而我一般建议:您最好不要这样作。性能
组装服务器每每会在价格存在优点,或者同价格的性能上存在优点,可是咱们颇有可能失去稳定性,我一直把稳定性的优先级放在性能至上。一线厂牌的Server 在出厂以前都是通过严格测试的,而且得出最终的年故障停机率。而且每台设备售出,信誉上要向全球负责,组装服务器每每可能会忽略这些细节,总之,预算紧,请配备一台低端的一线厂牌的服务器。测试
PCI 总线:spa
FC HBA 与 iSCSI NICs 每每会产生很大的流量经过PCI 总线,选择最佳总线速率,确保系统可以处理预期的工做负载。操作系统
另外:若是预期考虑到PCI 总线会有很大的流量负担,请优先考虑传统,独立的服务器,而不是刀片服务器,经验丰富的工程师一定知道,刀片服务器总线及适配器每每是统一聚集的。设计
Multiport HBA’s日志
Multiport NIC’s
多个端口的适配器确保链路冗余,在安全上是很重要的。请确保FC HBA支持发起模式
端口速率的选择,我没有主观的建议,由于与实际的生产环境有很大的关系,可是我提供一些数值,再压力测试以后,能经过这些数值选配最佳速率的适配器。
表1-HBA卡最大的性能:
端口速率 | IO/s | MB/s 半双工 | MB/s 全双工 |
2 Gb/s | 100000 | 200 | 400 |
4 Gb/s | 150000 | 400 | 800 |
8 Gb/s | 200000 | 800 | 1600 |
表1显示的光线适配器最大速率,可是一般在适配器工做时候会有部分的额外损耗,实际速率一般是理论值的66%:
表2-HBA卡实际工做速率
端口速率 | IO/s | MB/s 半双工 | MB/s 全双工 |
2 Gb/s | 65000 | 180 | 360 |
4 Gb/s | 100000 | 360 | 720 |
8 Gb/s | 130000 | 720 | 1440 |
*表2上面的值,根据实际环境的因素,可能会更高或更低,实践环境下,能够利用此数值进行参考。
端口链接:
若是已经配置冗余端口,尽量把端口物理隔离。
好比HOST 有2块双端口的HBA卡,一方面链接带有双控的存储1,一方面链接带有双控的存储2.能够分别占用2块卡各一个端口链接存储1,其他链接存储2.
表3-iSCSI 平均速率
端口速率 | IO/s | MB/s |
1 Gb/s | 12000 | 80 |
10 Gb/s | 80000 | 530 |
*表3上面的值,根据实际环境的因素,可能会更高或更低,实践环境下,能够利用此数值进行参考;
另外:iSCSI 一般会比FC 形成更大的性能开销。尤为是CPU,由于经过Ip封装的SCSI命令,要靠CPU进行处理。一般iSCSI 的发起端,要比iSCSI的目标端带来更大的开销。
我建议为每个iSCSI发起端/目标端增长一颗CPU(Core);
多少颗CPU(Core)
取决于服务器有多少IO / s必须被处理;适当数量的cpu必须选择。
另外:以前遇到一个问题,发生在一台Esxi的Host 上面,一颗多核心的CPU,其中一个核心工做负载接近90%以上,而其它几个核心彷佛10%如下。这颗CUP的属性是:基于Inter Xeon 5系列,解决的方法是,进入BIOS ,关闭相似一个TurboBoot功能,而后获得解决。
操做系统:
这一方面彷佛没有太多的介绍,由于根据业务类型,客户早已定性。
可是我建议,若是采用Windows Server 的Host,尽量使用英文系统(语言),一般一个故障出现是时,咱们没法马上排除,只能把错误信息(或日志)反馈给供应商,反馈的信息若是存在中文信息,那么对于某些外籍的Support来讲,就会下降效率,英文是全球的通用语言,因此我建议使用英文。