1. Slave节点NodeManager启动,可是datanode未启动node
首先检查datanode启动节点上hadoop-2.7.2/hdfs/data/current/VERSION中的clusterid是否和namenode同目录下clusterid一致centos
而后在看storageid是否存在app
2. 用Hibench提交做业出现的问题oop
du: `hdfs://centos35:9000/HiBench/Sort/Input': No such file or directoryspa
本人批量流式sparkstreaming转过来的,因此忽略了一点,批量流式的数据是源源不断到来的,而批处理做业的数据是须要指定数据所在的文件夹,且保证做业提交时文件夹中有数据。.net
数据发生器启动./prepare后会向系统提交一个产生随机数的做业,这个做业的输出数据即便咱们sort文件的输入数据,所以,须要等到随机数做业执行完再提交sort做业。日志
3. 学会查看log文件,找到问题server
因为log文件会不少,这时候能够使用ls --full-time看看每一个文件的时间,来肯定哪个才是咱们要查看的文件。blog
4. 监控页面hadoop
localhost:8088 yarn
localhost:50070 hdfs
jobhistory节点的端口号:19888能够查看map数
5. 监控信息的获取
可从监控页面看到一些信息,可是还须要从log日志中获取更细节的信息,配置参考https://blog.csdn.net/lisongjia123/article/details/78639058
sbin/mr-jobhistory-daemon.sh start historyserver在namenode节点开启jobhistory服务
日志位置在namenode的hadoop文件夹下logs里存储
或输入指令 : yarn logs -applicationId application_1542795109277_0004
监控页面端口号:19888
container日志在/data/yarn/logs/jobid/syslog中存储
aggregatelog所在位置是hdfs,不是对应的物理节点位置,hdfs dfs -get /tmp/aggregate-log /home/zc/data拉取到本地