Hadoop中 HDFS的设计

HDFS是Hadoop Distrbition FileSystem 的缩写,分布式文件系统。这种设计的思想是来源于操做系统,总体的来看是也是master/slave的控制方式,设计的用途主要有如下的集中:分布式

硬件要求:
一、当前的文件能够存储到普通的pc硬盘上,就是没有很高的硬件要求;oop

文件处理的方式:
一、处理较大的文件,较小的文件处理起来不划算;
二、文件是以文件流的形式进行存储,其实就是一次性写入,屡次读取的情景;
三、后期的文件能够对已经存在的文件追加写入,前提是单一用户,不能让多用来这么作;
 操作系统

处理的效率:
主要的适用于延迟比较大的数据分析,不适合实时的数据处理;设计

相关文章
相关标签/搜索