分布式文件系统-HDFS

从RAID提及

大数据技术主要要解决的问题的是大规模数据的计算处理问题,那么首先要解决的就是大规模数据的存储问题。大规模数据存储要解决的核心问题有三个方面:算法

  • 数据存储容量的问题,既然大数据要解决的是数以PB计的数据计算问题,而通常的服务器磁盘容量一般1-2TB,那么如何存储这么大规模的数据。数据库

  • 数据读写速度的问题,通常磁盘的连续读写速度为几十MB,以这样的速度,几十PB的数据恐怕要读写到天荒地老。编程

  • 数据可靠性的问题,磁盘大约是计算机设备中最易损坏的硬件了,在网站一块磁盘使用寿命大概是一年,若是磁盘损坏了,数据怎么办?服务器

在大数据技术出现以前,人们就须要面对这些关于存储的问题,对应的解决方案就是RAID技术。架构

RAID(独立磁盘冗余阵列)技术主要是为了改善磁盘的存储容量,读写速度,加强磁盘的可用性和容错能力。目前服务器级别的计算机都支持插入多块磁盘(8块或者更多),经过使用RAID技术,实现数据在多块磁盘上的并发读写和数据备份。并发

经常使用RAID技术有如下几种,如图所示。框架

经常使用RAID技术原理图

假设服务器有N块磁盘。运维

RAID0编程语言

数据在从内存缓冲区写入磁盘时,根据磁盘数量将数据分红N份,这些数据同时并发写入N分布式

块磁盘,使得数据总体写入速度是一块磁盘的N倍。读取的时候也同样,所以RAID0具备极快的数据读写速度,可是RAID0不作数据备份,N块磁盘中只要有一块损坏,数据完整性就被破坏,全部磁盘的数据都会损坏。

RAID1

数据在写入磁盘时,将一份数据同时写入两块磁盘,这样任何一块磁盘损坏都不会致使数据丢失,插入一块新磁盘就能够经过复制数据的方式自动修复,具备极高的可靠性。

RAID10

结合RAID0和RAID1两种方案,将全部磁盘平均分红两份,数据同时在两份磁盘写入,至关于RAID1,可是在每一份磁盘里面的N/2块磁盘上,利用RAID0技术并发读写,既提升可靠性又改善性能,不过RAID10的磁盘利用率较低,有一半的磁盘用来写备份数据。

RAID3

通常状况下,一台服务器上不会出现同时损坏两块磁盘的状况,在只损坏一块磁盘的状况下,若是能利用其余磁盘的数据恢复损坏磁盘的数据,这样在保证可靠性和性能的同时,磁盘利用率也获得大幅提高。

在数据写入磁盘的时候,将数据分红N-1份,并发写入N-1块磁盘,并在第N块磁盘记录校验数据,任何一块磁盘损坏(包括校验数据磁盘),均可以利用其余N-1块磁盘的数据修复。可是在数据修改较多的场景中,任何磁盘修改数据都会致使第N块磁盘重写校验数据,频繁写入的后是第N块磁盘比其余磁盘容易损坏,须要频繁更换,因此RAID3不多在实践中使用。

RAID5

相比RAID3,更多被使用的方案是RAID5。

RAID5和RAID3很类似,可是校验数据不是写入第

N

块磁盘,而是螺旋式地写入全部磁盘中。这样校验数据的修改也被平均到全部磁盘上,避免RAID3频繁写坏一块磁盘的状况。

RAID6

若是数据须要很高的可靠性,在出现同时损坏两块磁盘的状况下(或者运维管理水平比较落后,坏了一块磁盘可是迟迟没有更换,致使又坏了一块磁盘),仍然须要修复数据,这时候可使用RAID6。

RAID6和RAID5相似,可是数据只写入N-2块磁盘,并螺旋式地在两块磁盘中写入校验信息(使用不一样算法生成)。

在相同磁盘数目(N)的状况下,各类RAID技术的比较以下表所示。

RAID技术有硬件实现,好比专用的RAID卡或者主板直接支持,也能够经过软件实现,在操做系统层面将多块磁盘组成RAID,在逻辑视做一个访问目录。RAID技术在传统关系数据库及文件系统中应用比较普遍,是改善计算机存储特性的重要手段。

RAID技术只是在单台服务器的多块磁盘上组成阵列,大数据须要更大规模的存储空间和访问速度。将RAID技术原理应用到分布式服务器集群上,就造成了Hadoop分布式文件系统HDFS的架构思想。

HDFS架构原理

和RAID在多个磁盘上进行文件存储及并行读写同样思路,HDFS在一个大规模分布式服务器集群上,对数据进行并行读写及冗余存储。由于HDFS能够部署在一个比较大的服务器集群上,集群中全部服务器的磁盘均可以供HDFS使用,因此整个HDFS的存储空间能够达到PB级容量。HDFS架构如图。

HDFS架构

HDFS中关键组件有两个,一个是NameNode,一个是DataNode。

DataNode负责文件数据的存储和读写操做,HDFS将文件数据分割成若干块(block),每一个DataNode存储一部分block,这样文件就分布存储在整个HDFS服务器集群中。应用程序客户端(Client)能够并行对这些数据块进行访问,从而使得HDFS能够在服务器集群规模上实现数据并行访问,极大地提升访问速度。实践中HDFS集群的DataNode服务器会有不少台,通常在几百台到几千台这样的规模,每台服务器配有数块磁盘,整个集群的存储容量大概在几PB到数百PB。

NameNode负责整个分布式文件系统的元数据(MetaData)管理,也就是文件路径名,数据block的ID以及存储位置等信息,承担着操做系统中文件分配表(FAT)的角色。HDFS为了保证数据的高可用,会将一个block复制为多份(缺省状况为3份),并将三份相同的block存储在不一样的服务器上。这样当有磁盘损坏或者某个DataNode服务器宕机致使其存储的block不能访问的时候,Client会查找其备份的block进行访问。

block多份复制存储以下图所示,对于文件/users/sameerp/data/part-0,其复制备份数设置为2,存储的block id为1,3。block1的两个备份存储在DataNode0和DataNode2两个服务器上,block3的两个备份存储DataNode4和DataNode6两个服务器上,上述任何一台服务器宕机后,每一个block都至少还有一个备份存在,不会影响对文件/users/sameerp/data/part-0的访问。

HDFS的block复制备份策略

事实上,DataNode会经过心跳和NameNode保持通讯,若是DataNode超时未发送心跳,NameNode就会认为这个DataNode已经失效,当即查找这个DataNode上存储的block有哪些,以及这些block还存储在哪些服务器上,随后通知这些服务器再复制一份block到其余服务器上,保证HDFS存储的block备份数符合用户设置的数目,即便再有服务器宕机,也不会丢失数据。


HDFS应用

Hadoop分布式文件系统能够象通常的文件系统那样进行访问:使用命令行或者编程语言API进行文件读写操做。咱们以HDFS写文件为例看HDFS处理过程,以下图。

HDFS写文件操做
  • 应用程序Client调用HDFS API,请求建立文件,HDFS API包含在Client进程中。

  • HDFS API将请求参数发送给NameNode服务器,NameNode在meta信息中建立文件路径,并查找DataNode中空闲的block。而后将空闲block的id、对应的DataNode服务器信息返回给Client。由于数据块须要多个备份,因此即便Client只须要一个block的数据量,NameNode也会返回多个NameNode信息。

  • Client调用HDFS API,请求将数据流写出。

  • HDFS API链接第一个DataNode服务器,将Client数据流发送给DataNode,该DataNode一边将数据写入本地磁盘,一边发送给第二个DataNode。同理第二个DataNode记录数据并发送给第三个DataNode。

  • Client通知NameNode文件写入完成,NameNode将文件标记为正常,能够进行读操做了。

HDFS虽然提供了API,可是在实践中,咱们不多本身编程直接去读取HDFS中的数据,缘由正如开篇提到,在大数据场景下,移动计算比移动数据更划算。于其写程序去读取分布在这么多DataNode上的数据,不如将程序分发到DataNode上去访问其上的block数据。可是如何对程序进行分发?分发出去的程序又如何访问HDFS上的数据?计算的结果如何处理,若是结果须要合并,该如何合并?

Hadoop提供了对存储在HDFS上的大规模数据进行并行计算的框架,就是咱们以前讲的MapReduce

相关文章
相关标签/搜索