|
MooseFS(MFS)算法 |
Ceph服务器 |
GlusterFS网络 |
Lustre架构 |
Metadata serveroracle |
单个MDS。存在单点故障和瓶颈。分布式 |
多个MDS,不存在单点故障和瓶颈。MDS能够扩展,不存在瓶颈。工具 |
无,不存在单点故障。靠运行在各个节点上的动态算法来代替MDS,不需同步元数据,无硬盘I/O瓶颈。性能 |
双MDS(互相备份)。MDS不能够扩展,存在瓶颈。优化 |
FUSEspa |
|
支持 |
|
|
访问接口 |
POSIX |
POSIX+块设备+文件对象 |
POSIX |
POSIX/MPI |
数据存储策略 |
文件被分片,数据块保存在不一样的存储服务器上。 |
文件被分片,每一个数据块是一个对象。对象保存在不一样的存储服务器上的不一样硬盘上 |
Cluster Translators(GlusterFS集群存储的核心)包括AFR、DHT(和Stripe三种类型。 AFR至关于RAID1,每一个文件都被复制到多个存储节点上。Stripe至关于RAID0,文件被分片,数据被条带化到各个存储节点上。 Translators能够组合,即AFR和stripe能够组成RAID10,实现高性能和高可用。 |
1. 能够把大文件分片并以相似RAID0的方式分散存储在多个存储节点上。 2. 经过共享存储能够作针对机器的高可用 |
冗余保护/副本 |
|
支持 |
支持 |
不支持 |
数据可靠性 |
由数据的多副本提供可靠性。 |
由数据的多副本提供可靠性。 |
由镜像提供可靠性。 |
由存储节点上的RAID1或RAID5/6提供可靠性。假如存储节点失效,则数据不可用。 |
备份 |
|
|
|
提供备份工具。支持远程备份。 |
故障恢复 |
|
当节点失效时,自动迁移数据、从新复制副本。 |
当节点、硬件、磁盘、网络发生故障时,系统会自动处理这些故障,管理员不需介入。 |
|
扩展性 |
增长存储服务器,能够提升容量和文件操做性能。可是因为不能增长MDS,所以元数据操做性能不能提升,是整个系统的瓶颈。 |
能够增长元数据服务器和存储节点。容量可扩展。文件操做性能可扩展。元数据操做性能可扩展。 |
容量可扩展。 |
可增长存储节点,提升容量可文件操做性能,可是因为不能增长MDS,所以元数据操做性能不能提升,是整个系统的瓶颈。 |
安装/部署 |
|
|
|
复杂。并且Lustre严重依赖内核,须要从新编译内核。 |
开发语言 |
|
|
|
|
适合场景 |
大量小文件读写 |
大文件 |
适合大文件。 对于小文件,无元数据服务设计解决了元数据的问题。但GlusterFS并无在I/O方面做优化,在存储服务器底层文件系统上仍然是大量小文件,本地文件系统元数据访问是瓶颈,数据分布和并行性也没法充分发挥做用。所以,GlusterFS的小文件性能还存在很大优化空间。 |
大文件读写 |
|
应用 |
海量图片等 |
云、视频媒体、块设备等 |
较多用户使用 |
在hpc上应用 |
优缺点 |
实施简单,可是存在单点故障。 |
应用在生产环境的用户还很少, 很多地方还不够成熟和稳定。 |
无元数据服务器,堆栈式架构(基本功能模块能够进行堆栈式组合,实现强大功能)。具备线性横向扩展能力。 因为没有元数据服务器,所以增长了客户端的负载,占用至关的CPU和内存。 但遍历文件目录时,则实现较为复杂和低效,须要搜索全部的存储节点。所以不建议使用较深的路径。 |
成熟、稳定 缺点:被oracle收购了。 |