前两天看到西瓜哥发布的一篇文章名为《SERVER SAN必定比阵列便宜吗?请看5年TCO分析》,其中分析了几家公司产品在数据归档方面5年内的TCO分析。我很是赞同西瓜哥的见解,这种场景的将来必定是Sserver SAN的,这个结论应该不用怀疑。服务器
对于长期归档,应该用10年的跨度来对比比较合适。由于通常阵列的生命周期是5-7年,生命周期结束要更换到新的系统,必需要进行数据迁移,有一笔迁移的费用。而Server SAN理论上能够滚动更换服务器,平滑完成硬件的升级,并且,若是数据量暴涨,Scale-out方式也能够保持架构的不变。这些都是SDS的独特优点。架构
下面举例说明:ide
例如:医院的PACS医疗影像系统,当前使用的是昂贵的FC高端存储来存放热数据,以便于快速查询资料,当过了一个月或是两个月以后这些数据将会变成温数据,而后将温数据迁移至相对便宜的IPSAN用于长期保存。ui
(国家卫计委有规定,医院影像资料必须长期保存,以便往后查询。)atom
这种数据存放有一个弊端,就是假设在医疗方面发生了重大突破or重大发现,须要查阅以前的数据,当从封存已久的IPSAN中往回导出查询的时候也是很麻烦的,由于不是同一设备。同时也要面临介质失效的问题,更换磁盘也很麻烦。刚才说的都是数据两级存放,假设以下图所说,数据三级存放,最后一级是带库or光盘。你们都知道介质是有时间寿命的,当介质寿命一到,那么这些数据就会丢失。另外就是数据的读取麻烦,假设刚好用的那家光盘or带库倒闭,那么就会陷于被某个厂商所绑定,可是如今还好,由于不少读取设备对大部分带库or光盘兼容。或者是想要那个光盘里面的部分数据,你须要从新把数据所有读取出来。spa
上面的例子,只是简单说了下医疗行业目前数据存放的流程,咱们暂且称之为“单次生命周期”由于只能存放,若是数据往回导是很麻烦的。3d
而SDS咱们称之为“屡次生命周期”,由于既能够存放,又便于读取。netty
假设采用Server SAN架构,把数据分为热数据、温数据、冷数据三类。当最终数据变为冷数据时,咱们把冷数据放置到低功耗的服务器上,如atom架构的X86机器,以便于节省能耗。当有重大突破or重大发现,须要调用以前的资料进行查看时,就能够把数据迁移回来,由于都是同一集群、同一网段,迁移起来会更加的方便。当某个磁盘、机器介质失效时,能够更换新的磁盘、机器加入集群,数据也会平滑的迁移,作到应用无感知。server
其实不仅是医疗行业,政府某些行业也是同样,一些资料必须长期保存。因此,采用软件定义存储(或Server SAN)的好处不单单如以前所说,低成本、按需使用等,更重要的是数据长期保存的价值排浪。生命周期
相关资料: