问题导读: 1.如何经过web查看hdfs集群状态 2.如何经过web查看运行在在主节点master上ResourceManager状态 3.如何经过web查看运行在在slave节点NodeManager资源状态 4.JobHistory 能够查看什么信息 |
本文是在hadoop2的基础上hadoop2彻底分布式最新高可靠安装文档的一个继续。
hadoop2.2安装完毕,咱们该怎么使用它,这里作一些简单的介绍
1、能够经过登陆Web控制台,查看HDFS集群状态,访问以下地址: html
复制代码node
来源:
组件 :HDFS
节点 :NameNode
默认端口:50070
配置 :dfs.namenode.http-address
用途说明:http服务的端口
hadoop2.x经常使用端口及定义方法(可收藏方便之后查询)
2、ResourceManager运行在主节点master上,能够Web控制台查看状态
web
复制代码shell
若是你的主机名不是master,按照下面格式来访问。
express
复制代码app
或则webapp
复制代码分布式
这里介绍8088的来源:
yarn-site.xml中的属性:ide
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:8088</value>
</property>
3、NodeManager运行在从节点上,能够经过Web控制台查看对应节点的资源状态,例如节点slave1:oop
复制代码
来源:
组件 :YARN
节点 :NodeManager
默认端口:8042
配置 :yarn.nodemanager.webapp.address
用途说明:http服务端口
4、管理JobHistory Server
启动能够JobHistory Server,可以经过Web控制台查看集群计算的任务的信息,执行以下命令:
复制代码
默认使用19888端口。
经过访问http://master:19888/
来源:
组件 :YARN
节点 :JobHistory Server
默认端口:19888
配置 :mapreduce.jobhistory.webapp.address
用途说明:http服务端口
以上全部端口均可以从hadoop2.x经常使用端口及定义方法(可收藏方便之后查询)文章中找到。
终止JobHistory Server,执行以下命令:
复制代码
问题导读
1.Hadoop文件系统shell与Linux shell有哪些类似之处?
2.如何改变文件所属组?
3.如何改变hdfs的文件权限?
4.如何查找hdfs文件,而且不区分大小写?
概述
文件系统 (FS) shell 包括各类相似的命令直接与 Hadoop Distributed File System (HDFS)交互。hadoop也支持其它文件系统,好比 Local FS, HFTP FS, S3 FS, 和 其它的. FS shell被下面调用:
[Bash shell] 纯文本查看 复制代码
1 |
|
全部的FS shell命令带有URIs路径参数。The URI 格式是://authority/path。对 HDFS文件系统,scheme是hdfs。其中scheme和 authority参数都是可选的
若是没有指定,在文件中使用默认scheme.一个hdfs文件或则目录好比 /parent/child,能够是 hdfs://namenodehost/parent/child 或则简化为/parent/child(默认配置设置成指向hdfs://namenodehost).大多数FS shell命令对应 Unix 命令.每一个命令都有不一样的描述。将错误信息发送到标准错误输出和输出发送到stdout。
appendToFile【添加文件】
用法: hadoop fs -appendToFile <localsrc> ... <dst>添加单个src,或则多个srcs从本地文件系统到目标文件系统。从标准输入读取并追加到目标文件系统。
返回代码:
返回 0成功返回 1 错误
cat
用法: hadoop fs -cat URI [URI ...]
将路径指定文件的内容输出到stdout
例子:
返回代码:
返回 0成功返回 1 错误
checksum
用法: hadoop fs -checksum URI
返回 checksum 文件信息
例子:
chgrp
用法: hadoop fs -chgrp [-R] GROUP URI [URI ...]
改变文件所属组. 必须是文件全部者或则超级用户. 更多信息在 Permissions Guide.
选项
chmod
用法: hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI ...]
更改文件的权限. 使用-R 将使改变在目录结构下递归进行。 必须是文件全部者或则超级用户. 更多信息在 Permissions Guide.
选项
chown
用法: hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ]
更改文件的全部者. 使用-R 将使改变在目录结构下递归进行。 必须是文件全部者或则超级用户. 更多信息在 Permissions Guide.
选项
copyFromLocal
用法: hadoop fs -copyFromLocal <localsrc> URI
相似put命令, 须要指出的是这个限制是本地文件
选项:
copyToLocal
用法: hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>
与get命令相似, 除了限定目标路径是一个本地文件外。
count
用法: hadoop fs -count [-q] [-h] [-v] <paths>统计目录个数,文件和目录下文件的大小。输出列:DIR_COUNT, FILE_COUNT, CONTENT_SIZE, PATHNAME
【目录个数,文件个数,总大小,路径名称】
输出列带有 -count -q 是: QUOTA, REMAINING_QUATA, SPACE_QUOTA, REMAINING_SPACE_QUOTA, DIR_COUNT, FILE_COUNT, CONTENT_SIZE, PATHNAME
【配置,其他指标,空间配额,剩余空间定额,目录个数,文件个数,总大小,路径名称】
The -h 选项,size可读模式.
The -v 选项显示一个标题行。
Example:
返回代码:
返回 0成功返回 1 错误
cp
用法: hadoop fs -cp [-f] [-p | -p[topax]] URI [URI ...] <dest>复制文件,这个命令容许复制多个文件到一个目录。
‘raw.*’ 命名空间扩展属性被保留
(1)源文件和目标文件支持他们(仅hdfs)
(2)全部的源文件和目标文件路径在 /.reserved/raw目录结构下。
决定是否使用 raw.*命名空间扩展属性依赖于-P选项
选项:
例子:
返回代码:
返回 0成功返回 1 错误
createSnapshot
查看 HDFS Snapshots Guide.
deleteSnapshot
查看 HDFS Snapshots Guide.
df【查看还剩多少hdfs空间】
用法: hadoop fs -df [-h] URI [URI ...]
显示剩余空间
选项:
Example:
du
用法: hadoop fs -du [-s] [-h] URI [URI ...]显示给定目录的文件大小及包含的目录,若是只有文件只显示文件的大小
选项:
例子:
返回代码:
返回 0成功返回 1 错误
dus
用法: hadoop fs -dus <args>
显示统计文件长度
注意:这个命令已被启用, hadoop fs -du -s便可
expunge
用法: hadoop fs -expunge
清空垃圾回收站. 涉及 HDFS Architecture Guide 更多信息查看回收站特色
find
用法: hadoop fs -find <path> ... <expression> ...查找与指定表达式匹配的全部文件,并将选定的操做应用于它们。若是没有指定路径,则默认查找当前目录。若是没有指定表达式默认-print
下面主要表达式:
若是
值为TRUE若是文件基本名匹配模式使用标准的文件系统组合。若是使用-iname匹配不区分大小写。
下面操做:
and运算符链接两个表达式,若是两个字表达式返回true,则返回true.由两个表达式的并置暗示,因此不须要明确指定。若是第一个失败,则不会应用第二个表达式。
例子:
hadoop fs -find / -name test -print
返回代码:
返回 0成功返回 1 错误
get
用法: hadoop fs -get [-ignorecrc] [-crc] <src> <localdst>复制文件到本地文件。
复制文件到本地文件系统. 【CRC校验失败的文件复制带有-ignorecrc选项(如翻译有误欢迎指正)】
Files that fail the CRC check may be copied with the -ignorecrc option.
文件CRC能够复制使用CRC选项。
例子:
返回代码:
返回 0成功返回 1 错误
相关内容
hadoop入门手册1:hadoop【2.7.1】【多节点】集群配置【必知配置知识1】
hadoop入门手册2:hadoop【2.7.1】【多节点】集群配置【必知配置知识2】
hadoop入门手册3:Hadoop【2.7.1】初级入门之命令指南
hadoop入门手册4:Hadoop【2.7.1】初级入门之命令:文件系统shell1
hadoop入门手册5:Hadoop【2.7.1】初级入门之命令:文件系统shell2
hadoop2.X使用手册1:经过web端口查看主节点、slave1节点及集群运行状态
http://www.aboutyun.com/thread-7712-1-1.html