在Hadoop的学习与使用过程当中一样如此。这里为你们分享Hadoop集群设置中常常出现的一些问题,如下为译文:html
1.Hadoop集群能够运行的3个模式?java
2. 单机(本地)模式中的注意点?node
在单机模式(standalone)中不会存在守护进程,全部东西都运行在一个JVM上。这里一样没有DFS,使用的是本地文件系统。单机模式适用于开发过程当中运行MapReduce程序,这也是最少使用的一个模式。shell
3. 伪分布模式中的注意点?浏览器
伪分布式(Pseudo)适用于开发和测试环境,在这个模式中,全部守护进程都在同一台机器上运行。安全
4. VM是否能够称为Pseudo?服务器
不是,两个事物,同时Pseudo只针对Hadoop。网络
5. 全分布模式又有什么注意点?less
全分布模式一般被用于生产环境,这里咱们使用N台主机组成一个Hadoop集群,Hadoop守护进程运行在每台主机之上。这里会存在Namenode运行的主机,Datanode运行的主机,以及task tracker运行的主机。在分布式环境下,主节点和从节点会分开。分布式
6. Hadoop是否遵循UNIX模式?
是的,在UNIX用例下,Hadoop还拥有“conf”目录。
7. Hadoop安装在什么目录下?
Cloudera和Apache使用相同的目录结构,Hadoop被安装在cd/usr/lib/hadoop-0.20/。
8. Namenode、Job tracker和task tracker的端口号是?
Namenode,70;Job tracker,30;Task tracker,60。
9. Hadoop的核心配置是什么?
Hadoop的核心配置经过两个xml文件来完成:1,hadoop-default.xml;2,hadoop-site.xml。这些文件都使用xml格式,所以每一个xml中都有一些属性,包括名称和值,可是当下这些文件都已不复存在。
10. 那当下又该如何配置?
Hadoop如今拥有3个配置文件:1,core-site.xml;2,hdfs-site.xml;3,mapred-site.xml。这些文件都保存在conf/子目录下。
11. RAM的溢出因子是?
溢出因子(Spill factor)是临时文件中储存文件的大小,也就是Hadoop-temp目录。
12. fs.mapr.working.dir只是单一的目录?
fs.mapr.working.dir只是一个目录。
13. hdfs-site.xml的3个主要属性?
14. 如何退出输入模式?
退出输入的方式有:1,按ESC;2,键入:q(若是你没有输入任何当下)或者键入:wq(若是你已经输入当下),而且按下Enter。
15. 当你输入hadoopfsck /形成“connection refused java exception’”时,系统究竟发生了什么?
这意味着Namenode没有运行在你的VM之上。
16. 咱们使用Ubuntu及Cloudera,那么咱们该去哪里下载Hadoop,或者是默认就与Ubuntu一块儿安装?
这个属于Hadoop的默认配置,你必须从Cloudera或者Edureka的dropbox下载,而后在你的系统上运行。固然,你也能够本身配置,可是你须要一个Linux box,Ubuntu或者是Red Hat。在Cloudera网站或者是Edureka的Dropbox中有安装步骤。
17. “jps”命令的用处?
这个命令能够检查Namenode、Datanode、Task Tracker、 Job Tracker是否正常工做。
18. 如何重启Namenode?
19. Fsck的全名?
全名是:File System Check。
20. 如何检查Namenode是否正常运行?
若是要检查Namenode是否正常工做,使用命令/etc/init.d/hadoop-0.20-namenode status或者就是简单的jps。
21. mapred.job.tracker命令的做用?
可让你知道哪一个节点是Job Tracker。
22. /etc /init.d命令的做用是?
/etc /init.d说明了守护进程(服务)的位置或状态,实际上是LINUX特性,和Hadoop关系不大。
23. 如何在浏览器中查找Namenode?
若是你确实须要在浏览器中查找Namenode,你再也不须要localhost:8021,Namenode的端口号是50070。
24. 如何从SU转到Cloudera?
从SU转到Cloudera只须要键入exit。
25. 启动和关闭命令会用到哪些文件?
Slaves及Masters。
26. Slaves由什么组成?
Slaves由主机的列表组成,每台1行,用于说明数据节点。
27. Masters由什么组成?
Masters一样是主机的列表组成,每台一行,用于说明第二Namenode服务器。
28. hadoop-env.sh是用于作什么的?
hadoop-env.sh提供了Hadoop中. JAVA_HOME的运行环境。
29. Master文件是否提供了多个入口?
是的你能够拥有多个Master文件接口。
30. hadoop-env.sh文件当下的位置?
hadoop-env.sh如今位于conf。
31. 在Hadoop_PID_DIR中,PID表明了什么?
PID表明了“Process ID”。
32. /var/hadoop/pids用于作什么?
/var/hadoop/pids用来存储PID。
33. hadoop-metrics.properties文件的做用是?
hadoop-metrics.properties被用作“Reporting”,控制Hadoop报告,初始状态是“not to report”。
34. Hadoop需求什么样的网络?
Hadoop核心使用Shell(SSH)来驱动从节点上的服务器进程,并在主节点和从节点之间使用password-less SSH链接。
35. 全分布式环境下为何需求password-less SSH?
这主要由于集群中通讯过于频繁,Job Tracker须要尽量快的给Task Tracker发布任务。
36. 这会致使安全问题吗?
彻底不用担忧。Hadoop集群是彻底隔离的,一般状况下没法从互联网进行操做。不同凡响的配置,所以咱们彻底不须要在乎这种级别的安全漏洞,好比说经过互联网侵入等等。Hadoop为机器之间的链接提供了一个相对安全的方式。
37. SSH工做的端口号是?
SSH工做的端口号是NO.22,固然能够经过它来配置,22是默认的端口号。
38. SSH中的注意点还包括?
SSH只是个安全的shell通讯,能够把它当作NO.22上的一种协议,只须要配置一个密码就能够安全的访问。
39. 为何SSH本地主机须要密码?
在SSH中使用密码主要是增长安全性,在某些状况下也根本不会设置密码通讯。
40. 若是在SSH中添加key,是否还须要设置密码?
是的,即便在SSH中添加了key,仍是须要设置密码。
41. 假如Namenode中没有数据会怎么样?
没有数据的Namenode就不能称之为Namenode,一般状况下,Namenode确定会有数据。
42. 当Job Tracker宕掉时,Namenode会发生什么?
当Job Tracker失败时,集群仍然能够正常工做,只要Namenode没问题。
43. 是客户端仍是Namenode决定输入的分片?
这并非客户端决定的,在配置文件中以及决定分片细则。
44. 是否能够自行搭建Hadoop集群?
是的,只要对Hadoop环境足够熟悉,你彻底能够这么作。
45. 是否能够在Windows上运行Hadoop?
你最好不要这么作,Red Hat Linux或者是Ubuntu才是Hadoop的最佳操做系统。在Hadoop安装中,Windows一般不会被使用,由于会出现各类各样的问题。所以,Windows绝对不是Hadoop的推荐系统。