参考https://www.cnblogs.com/sdksdk0/p/5585047.htmlhtml
【HDFS原理】node
Hadoop分布式文件系统(HDFS)被设计成适合运行在通用硬件(commodity hardware)上的分布式文件系统。HDFS体系结构中有两类节点,一类是NameNode,又叫"元数据节点";另外一类是DataNode,又叫"数据节点"。这两类节点分别承担Master和Worker具体任务的执行节点。总的设计思想:分而治之——将大文件、大批量文件,分布式存放在大量独立的服务器上,以便于采起分而治之的方式对海量数据进行运算分析。linux
HDFS是一个主/从(Mater/Slave)体系结构,从最终用户的角度来看,它就像传统的文件系统同样,能够经过目录路径对文件执行CRUD(Create、Read、Update和Delete)操做。但因为分布式存储的性质,HDFS集群拥有一个NameNode和一些DataNode。NameNode管理文件系统的元数据,DataNode存储实际的数据。客户端经过同NameNode和DataNodes的交互访问文件系统。客户端联系NameNode以获取文件的元数据,而真正的文件I/O操做是直接和DataNode进行交互的。
HDFS通常是用来“一次写入,屡次读取”,不适合作实时交互性很强的事情,不适合存储大量小文件(固然,若是你偏要存大量小文件的话本文末尾会有解决方案).服务器
1 分布式文件系统,它所管理的文件是被切块存储在若干台datanode服务器上.
2 hdfs提供了一个统一的目录树来定位hdfs中的文件,客户端访问文件时只要指定目录树的路径便可,不用关心文件的具体物理位置.
3 每个文件的每个切块,在hdfs集群中均可以保存多个备份(默认3份),在hdfs-site.xml中,dfs.replication的value的数量就是备份的数量.
4 hdfs中有一个关键进程服务进程:namenode,它维护了一个hdfs的目录树及hdfs目录结构与文件真实存储位置的映射关系(元数据).而datanode服务进程专门负责接收和管理"文件块"-block.默认大小为128M(可配置),(dfs.blocksize).(老版本的hadoop的默认block是64M的)app
【HDFS Shell经常使用操做】分布式
--appendToFile ----追加一个文件到已经存在的文件末尾oop
-->hadoop fs -appendToFile ./hello.txt hdfs://hadoop-server01:9000/hello.txt设计
能够简写为:Hadoop fs -appendToFile ./hello.txt /hello.txtserver
-cat ---显示文件内容 xml
-->hadoop fs -cat /hello.txt
-chgrp
-chmod
-chown
上面三个跟linux中的用法同样
-->hadoop fs -chmod 666 /hello.txt
-copyFromLocal #从本地文件系统中拷贝文件到hdfs路径去
-->hadoop fs -copyFromLocal ./jdk.tar.gz /aaa/
-copyToLocal #从hdfs拷贝到本地
Eg: hadoop fs -copyToLocal /aaa/jdk.tar.gz
-count #统计一个指定目录下的文件节点数量
-->hadoop fs -count /aaa/
-cp #从hdfs的一个路径拷贝hdfs的另外一个路径
hadoop fs -cp/aaa/jdk.tar.gz /bbb/jdk.tar.gz.2
-createSnapshot
-deleteSnapshot
-renameSnapshot
以上三个用来操做hdfs文件系统目录信息快照
-->hadoop fs -createSnapshot /
-df #统计文件系统的可用空间信息
-du
-->hadoop fs -df -h /
-->hadoop fs -du -s -h /aaa/*
-get #等同于copyToLocal,就是从hdfs下载文件到本地
-getmerge #合并下载多个文件
--> 好比hdfs的目录 /aaa/下有多个文件:log.1, log.2,log.3,...
hadoop fs -getmerge /aaa/log.* ./log.sum
-help #输出这个命令参数手册
-ls #显示目录信息
-->hadoop fs -ls hdfs://hadoop-server01:9000/
这些参数中,全部的hdfs路径均可以简写
-->hadoop fs -ls / 等同于上一条命令的效果
-mkdir #在hdfs上建立目录
-->hadoop fs -mkdir -p /aaa/bbb/cc/dd
-moveFromLocal #从本地剪切粘贴到hdfs
-moveToLocal #从hdfs剪切粘贴到本地
-mv #在hdfs目录中移动文件
-put #等同于copyFromLocal
-rm #删除文件或文件夹
--> hadoop fs -rm -r/aaa/bbb/
-rmdir #删除空目录
-setrep #设置hdfs中文件的副本数量
-->hadoop fs -setrep 3 /aaa/jdk.tar.gz
-stat #显示一个文件或文件夹的元信息
-tail #显示一个文件的末尾
-text #以字符形式打印一个文件的内容
【HDFS写入比读取复杂】