Ubuntu上搭建Hadoop环境(单机模式+伪分布模式)

Hadoop在处理海量数据分析方面具备独天优点。今天花时间在本身的Linux上搭建了伪分布模式,期间经历不少曲折,如今将经验总结以下。html

首先,了解Hadoop的三种安装模式:java

1. 单机模式. 单机模式是Hadoop的默认模。当配置文件为空时,Hadoop彻底运行在本地。由于不须要与其余节点交互,单机模式就不使用HDFS,也不加载任何Hadoop的守护进程。该模式主要用于开发调试MapReduce程序的应用逻辑。node

2. 伪分布模式. Hadoop守护进程运行在本地机器上,模拟一个小规模的的集群。该模式在单机模式之上增长了代码调试功能,容许你检查内存使用状况,HDFS输入输出,以及其余的守护进程交互。linux

3. 全分布模式. Hadoop守护进程运行在一个集群上。
算法

参考资料:apache

1. Ubuntu11.10下安装Hadoop1.0.0(单机伪分布式)ubuntu

2. 在Ubuntu上安装Hadoop安全

3. Ubuntu 12.04搭建hadoop单机版环境服务器

4. Ubuntu下安装及配置单点hadoopsession

5. Ubuntu上搭建Hadoop环境(单机模式+伪分布模式)

6. Hadoop的快速入门之 Ubuntu上搭建Hadoop环境(单机模式+伪分布模式)


本人极力推荐56,这两种教程从简到难,步骤详细,且有运行算例。下面我就将本身的安装过程大体回顾一下,为省时间,不少文字粘贴子参考资料56,再次感谢两位做者分享本身的安装经历。另外,下面的三篇文章能够从总体上把握Hadoop的结构,使你可以理解为何要这么这么作。

7.分布式计算开源框架Hadoop介绍

8.Hadoop中的集群配置和使用技巧

9.Hadoop基本流程与应用开发


个人安装的是ubuntu12.o4, 用户名derek, 机器名称是derekUbn, Hadoop的版本Hadoop-1.1.2.tar.gz,闲话少说,步骤和每一步的图示以下:

1、在Ubuntu下建立hadoop用户组和用户

1.添加hadoop用户到系统用户

[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. derek@derekUbun:~$ sudo addgroup hadoop  

  2. derek@derekUbun:~$ sudo adduser --ingroup hadoop hadoop  

  3.    

2. 如今只是添加了一个用户hadoop,它并不具有管理员权限,咱们给hadoop用户添加权限,打开/etc/sudoers文件


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. derek@derekUbun:~$ sudo gedit /etc/sudoers  


root  ALL=(ALL:ALL)  ALL下添加hadoop  ALL=(ALL:ALL)  ALL


2、配置SSH

配置SSH是为了实现各机器之间执行指令无需输入登陆密码。务必要避免输入密码,不然,主节点每次试图访问其余节点时,都须要手动输入这个密码。

SSH无密码原理:master(namenode/jobtrack)做为客户端,要实现无密码公钥认证,链接到服务器slave(datanode/tasktracker)上时,须要在master上生成一个公钥对,包括一个公钥和一个私钥,然后将公钥复制到全部的slave上。当master经过SSH链接slave时,slave就会生成一个随机数并用master的公钥对随机数进行加密,并发送给master。Master收到密钥加密数以后再用私钥解密,并将解密数回传给slave,slave确认解密数无误后就容许master进行链接了。这就是一个公钥认证的过程,期间不须要用户手工输入密码。重要过程是将客户端master复制到slave上。
一、安装ssh

1) 因为Hadoop用ssh通讯,先安装ssh. 注意,我先从derek用户转到了hadoop.


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. derek@derekUbun:~$ su - hadoop  

  2. 密码:   

  3. hadoop@derekUbun:~$ sudo apt-get install openssh-server  

  4. [sudo] password for hadoop:   

  5. 正在读取软件包列表... 完成  

  6. 正在分析软件包的依赖关系树         

  7. 正在读取状态信息... 完成         

  8. openssh-server 已是最新的版本了。  

  9. 下列软件包是自动安装的而且如今不须要了:  

  10.   kde-l10n-de language-pack-kde-de language-pack-kde-en ssh-krb5  

  11.   language-pack-de-base language-pack-kde-zh-hans language-pack-kde-en-base  

  12.   kde-l10n-engb language-pack-kde-de-base kde-l10n-zhcn firefox-locale-de  

  13.   language-pack-de language-pack-kde-zh-hans-base  

  14. 使用'apt-get autoremove'来卸载它们  

  15. 升级了 0 个软件包,新安装了 0 个软件包,要卸载 0 个软件包,有 505 个软件包未被升级。  



由于个人机器已安装最新版的ssh,所以这一步实际上什么也没作。


2) 假设ssh安装完成,先启动服务。启动后,能够经过命令查看服务是否正确启动:


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:~$ sudo /etc/init.d/ssh start  

  2. Rather than invoking init scripts through /etc/init.d, use the service(8)  

  3. utility, e.g. service ssh start  

  4.   

  5. Since the script you are attempting to invoke has been converted to an  

  6. Upstart job, you may also use the start(8) utility, e.g. start ssh  

  7. hadoop@derekUbun:~$ ps -e |grep ssh  

  8.   759 ?        00:00:00 sshd  

  9.  1691 ?        00:00:00 ssh-agent  

  10. 12447 ?        00:00:00 ssh  

  11. 12448 ?        00:00:00 sshd  

  12. 12587 ?        00:00:00 sshd  

  13. hadoop@derekUbun:~$   


3) 做为一个安全通讯协议(ssh生成密钥有rsa和dsa两种生成方式,默认状况下采用rsa方式),使用时须要密码,所以咱们要设置成免密码登陆,生成私钥和公钥:


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:~$ ssh-keygen -t rsa -P ""  

  2. Generating public/private rsa key pair.  

  3. Enter file in which to save the key (/home/hadoop/.ssh/id_rsa):   

  4. /home/hadoop/.ssh/id_rsa already exists.  

  5. Overwrite (y/n)? y  

  6. Your identification has been saved in /home/hadoop/.ssh/id_rsa.  

  7. Your public key has been saved in /home/hadoop/.ssh/id_rsa.pub.  

  8. The key fingerprint is:  

  9. c7:36:c7:77:91:a2:32:28:35:a6:9f:36:dd:bd:dc:4f hadoop@derekUbun  

  10. The key's randomart image is:  

  11. +--[ RSA 2048]----+  

  12. |                 |  

  13. |                .|  

  14. |       +     . o |  

  15. |      + o. .. . .|  

  16. |     o .So=.o . .|  

  17. |      o oo+o.. . |  

  18. |       = . . .  E|  

  19. |      . .   . o. |  

  20. |             o .o|  

  21. +-----------------+  

  22. hadoop@derekUbun:~$   


(注:回车后会在~/.ssh/下生成两个文件:id_rsa和id_rsa.pub这两个文件是成对出现的前者为私钥,后者为公钥)

进入~/.ssh/目录下,将公钥id_rsa.pub追加到authorized_keys受权文件中,开始是没有authorized_keys文件的(authorized_keys 用于保存全部容许以当前用户身份登陆到ssh客户端用户的公钥内容):

[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:~$ cat ~/.ssh/id_rsa.pub>> ~/.ssh/authorized_keys  

  2.   

  3. 如今能够登入ssh确认之后登陆时不用输入密码:  

  4.   

  5. hadoop@derekUbun:~$ ssh localhost  

  6. Welcome to Ubuntu 12.04 LTS (GNU/Linux 3.2.0-27-generic-pae i686)  

  7.   

  8.  * Documentation:  https://help.ubuntu.com/  

  9.   

  10. 512 packages can be updated.  

  11. 151 updates are security updates.  

  12.   

  13. Last login: Mon Mar 11 15:56:15 2013 from localhost  

  14. hadoop@derekUbun:~$   


( 注:当ssh远程登陆到其它机器后,如今你控制的是远程的机器,须要执行退出命令才能从新控制本地主机。)

登出:~$ exit

这样之后登陆就不用输入密码了。

[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:~$ exit  

  2. Connection to localhost closed.  

  3. hadoop@derekUbun:~$  


3、安装Java

使用derek用户,安装java. 由于个人电脑上已安装java,其安装目录是/usr/java/jdk1.7.0_17,能够显示个人这个安装版本。


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:~$ su - derek  

  2. 密码:   

  3. derek@derekUbun:~$ java -version  

  4. java version "1.7.0_17"  

  5. Java(TM) SE Runtime Environment (build 1.7.0_17-b02)  

  6. Java HotSpot(TM) Server VM (build 23.7-b01, mixed mode)  


4、安装hadoop-1.1.2

到官网下载hadoop源文件,我下载的是最新版本 jdk-7u17-linux-i586.tar.gz,将其解压并放到但愿的目录中。我把 jdk-7u17-linux-i586.tar.gz放到/usr/local/hadoop,并将解压后的文件夹重命名为hadoop。


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:/usr/local$ sudo tar xzf hadoop-1.1.2.tar.gz (注意,我已将hadoop-1.1.2.tar.gz拷贝到usr/local/hadoop,而后转到hadoop用户上)  

  2. hadoop@derekUbun:/usr/local$ sudo mv hadoop-1.1.2 /usr/local/hadoop  


要确保全部的操做都是在用户hadoop下完成的,因此将该hadoop文件夹的属主用户设为hadoop


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:/usr/local$ sudo chown -R hadoop:hadoop hadoop  


5、配置hadoop-env.sh(Java 安装路径)

进入用hadoop用户登陆,进入/usr/localhadoop目录,打开conf目录的hadoop-env.sh,添加如下信息:(找到#export JAVA_HOME=...,去掉#,而后加上本机jdk的路径)

export JAVA_HOME=/usr/java/jdk1.7.0_17 (视你机器的java安装路径而定,个人java安装目录是/usr/java/jdk1.7.0_17)
export HADOOP_INSTALL=/usr/local/hadoop( 注意,我这里用的HADOOP_INSTALL,而不是HADOOP_HOME,由于在新版中后者已经不用了。若用,会有警告)
export PATH=$PATH:/usr/local/hadoop/bin

[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:/usr/local/hadoop$ sudo vi conf/hadoop-env.sh  


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. # Set Hadoop-specific environment variables here.  

  2.   

  3. # The only required environment variable is JAVA_HOME.  All others are  

  4. # optional.  When running a distributed configuration it is best to  

  5. # set JAVA_HOME in this file, so that it is correctly defined on  

  6. # remote nodes.  

  7.   

  8. # The java implementation to use.  Required.  

  9. # export JAVA_HOME=/usr/lib/j2sdk1.5-sun  

  10. export JAVA_HOME=/usr/java/jdk1.7.0_17  

  11. export HADOOP_INSTALL=/usr/local/hadoop  

  12. export PATH=$PATH:/usr/local/hadoop/bin  

  13.   

  14. # Extra Java CLASSPATH elements.  Optional.  

  15. # export HADOOP_CLASSPATH=  

  16.   

  17. # The maximum amount of heap to use, in MB. Default is 1000.  

  18. # export HADOOP_HEAPSIZE=2000  

  19.   

  20. # Extra Java runtime options.  Empty by default.  

  21. # export HADOOP_OPTS=-server  

  22. "conf/hadoop-env.sh" 57L, 2356C  


而且,让环境变量配置生效source

[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:/usr/local/hadoop$ source /usr/local/hadoop/conf/hadoop-env.sh  


至此,hadoop的单机模式已经安装成功。能够显示Hadoop版本以下


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:/usr/local/hadoop$ hadoop version  

  2. Hadoop 1.1.2  

  3. Subversion https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.1 -r 1440782  

  4. Compiled by hortonfo on Thu Jan 31 02:03:24 UTC 2013  

  5. From source with checksum c720ddcf4b926991de7467d253a79b8b  

  6. hadoop@derekUbun:/usr/local/hadoop$   


如今运行一下hadoop自带的例子WordCount来感觉如下MapReduce过程:
在hadoop目录下新建input文件夹


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:/usr/local/hadoop$ mkdir input  


将conf中的全部文件拷贝到input文件夹中


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:/usr/local/hadoop$ cp conf/* input  



运行WordCount程序,并将结果保存到output中


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:/usr/local/hadoop$ bin/hadoop jar hadoop-examples-1.1.2.jar wordcount input output  



运行

[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:/usr/local/hadoop$ cat output/*  


会看到conf全部文件的单词和频数都被统计出来。


6、 伪分布模式的一些配置


这里须要设定3个文件:core-site.xml  hdfs-site.xml  mapred-site.xml,都在/usr/local/hadoop/conf目录下

core-site.xml: Hadoop Core的配置项,例如HDFS和MapReduce经常使用的I/O设置等。

hdfs-site.xml: Hadoop 守护进程的配置项,包括namenode,辅助namenode和datanode等。

mapred-site.xml: MapReduce 守护进程的配置项,包括jobtracker和tasktracker。

1.编辑三个文件:


1). core-site.xml:


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. <configuration>  

  2.     <property>  

  3.         <name>fs.default.name</name>  

  4.         <value>hdfs://localhost:9000</value>  

  5.     </property>  

  6.     <property>  

  7.         <name>hadoop.tmp.dir</name>  

  8.         <value>/usr/local/hadoop/tmp</value>  

  9.     </property>  

  10. </configuration>  


2).hdfs-site.xml:


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. <configuration>  

  2.     <property>  

  3.         <name>dfs.replication</name>  

  4.         <value>2</value>  

  5.     </property>  

  6.     <property>  

  7.         <name>dfs.name.dir</name>  

  8.         <value>/usr/local/hadoop/datalog1,/usr/local/hadoop/datalog2</value>  

  9.     </property>  

  10.     <property>  

  11.         <name>dfs.data.dir</name>  

  12.         <value>/usr/local/hadoop/data1,/usr/local/hadoop/data2</value>  

  13.     </property>  

  14. </configuration>  


3). mapred-site.xml:


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. <configuration>     

  2.     <property>    

  3.         <name>mapred.job.tracker</name>  

  4.         <value>localhost:9001</value>     

  5.     </property>  

  6. </configuration>  



2. 启动Hadoop到相关服务,格式化namenode, secondarynamenode, tasktracker:


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:/usr/local/hadoop$ source /usr/local/hadoop/conf/hadoop-env.sh   

  2. hadoop@derekUbun:/usr/local/hadoop$ hadoop namenode -format  


看到下面的信息就说明hdfs文件系统格式化成功了


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. 13/03/11 23:08:01 INFO common.Storage: Storage directory /usr/local/hadoop/datalog2 has been successfully formatted.  

  2. 13/03/11 23:08:01 INFO namenode.NameNode: SHUTDOWN_MSG:   

  3. /************************************************************  

  4. SHUTDOWN_MSG: Shutting down NameNode at derekUbun/127.0.1.1  

  5. ************************************************************/  



3. 启动Hadoop

接着执行start-all.sh来启动全部服务,包括namenode,datanode,start-all.sh脚本用来装载守护进程。用Java的jps命令列出全部守护进程来验证安装成功,出现以下列表,代表成功.

[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:/usr/local/hadoop$ cd bin  

  2. hadoop@derekUbun:/usr/local/hadoop/bin$ start-all.sh   

  3. starting namenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-hadoop-namenode-derekUbun.out  

  4. localhost: starting datanode, logging to /usr/local/hadoop/libexec/../logs/hadoop-hadoop-datanode-derekUbun.out  

  5. localhost: starting secondarynamenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-hadoop-secondarynamenode-derekUbun.out  

  6. starting jobtracker, logging to /usr/local/hadoop/libexec/../logs/hadoop-hadoop-jobtracker-derekUbun.out  

  7. localhost: starting tasktracker, logging to /usr/local/hadoop/libexec/../logs/hadoop-hadoop-tasktracker-derekUbun.out  

  8. hadoop@derekUbun:/usr/local/hadoop/bin$   


用Java的jps命令列出全部守护进程来验证安装成功


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:/usr/local/hadoop$ jps  


出现以下列表,代表成功


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:/usr/local/hadoop$ jps  

  2. 8431 JobTracker  

  3. 8684 TaskTracker  

  4. 7821 NameNode  

  5. 8915 Jps  

  6. 8341 SecondaryNameNode  

  7. hadoop@derekUbun:/usr/local/hadoop$  


4. 检查运行状态
全部的设置已完成,Hadoop也启动了,如今能够经过下面的操做来查看服务是否正常,在Hadoop中用于监控集群健康状态的Web界面:
http://localhost:50030/ - Hadoop 管理介面
http://localhost:50060/ - Hadoop Task Tracker 状态
http://localhost:50070/ - Hadoop DFS 状态

至此,hadoop的伪分布模式已经安装成功,因而,再次在伪分布模式下运行一下hadoop自带的例子WordCount来感觉如下MapReduce过程:

这时注意程序是在文件系统dfs运行的,建立的文件也都基于文件系统:

首先在dfs中建立input目录

[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:/usr/local/hadoop$ hadoop dfs -mkdir input   



将conf中的文件拷贝到dfs中的input


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:/usr/local/hadoop$ hadoop dfs -copyFromLocal conf/* input  


(注:可使用查看和删除hadoop dfs中的文件)


在伪分布式模式下运行WordCount


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop jar hadoop-examples-1.1.2.jar wordcount input output   



[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:/usr/local/hadoop$ hadoop jar hadoop-examples-1.1.2.jar wordcount input output  

  2. 13/03/12 09:26:05 INFO input.FileInputFormat: Total input paths to process : 16  

  3. 13/03/12 09:26:05 INFO util.NativeCodeLoader: Loaded the native-hadoop library  

  4. 13/03/12 09:26:05 WARN snappy.LoadSnappy: Snappy native library not loaded  

  5. 13/03/12 09:26:05 INFO mapred.JobClient: Running job: job_201303120920_0001  

  6. 13/03/12 09:26:06 INFO mapred.JobClient:  map 0% reduce 0%  

  7. 13/03/12 09:26:10 INFO mapred.JobClient:  map 12% reduce 0%  

  8. 13/03/12 09:26:13 INFO mapred.JobClient:  map 25% reduce 0%  

  9. 13/03/12 09:26:15 INFO mapred.JobClient:  map 37% reduce 0%  

  10. 13/03/12 09:26:17 INFO mapred.JobClient:  map 50% reduce 0%  

  11. 13/03/12 09:26:18 INFO mapred.JobClient:  map 62% reduce 0%  

  12. 13/03/12 09:26:19 INFO mapred.JobClient:  map 62% reduce 16%  

  13. 13/03/12 09:26:20 INFO mapred.JobClient:  map 75% reduce 16%  

  14. 13/03/12 09:26:22 INFO mapred.JobClient:  map 87% reduce 16%  

  15. 13/03/12 09:26:24 INFO mapred.JobClient:  map 100% reduce 16%  

  16. 13/03/12 09:26:28 INFO mapred.JobClient:  map 100% reduce 29%  

  17. 13/03/12 09:26:30 INFO mapred.JobClient:  map 100% reduce 100%  

  18. 13/03/12 09:26:30 INFO mapred.JobClient: Job complete: job_201303120920_0001  

  19. 13/03/12 09:26:30 INFO mapred.JobClient: Counters: 29  

  20. 13/03/12 09:26:30 INFO mapred.JobClient:   Job Counters   

  21. 13/03/12 09:26:30 INFO mapred.JobClient:     Launched reduce tasks=1  

  22. 13/03/12 09:26:30 INFO mapred.JobClient:     SLOTS_MILLIS_MAPS=29912  

  23. 13/03/12 09:26:30 INFO mapred.JobClient:     Total time spent by all reduces waiting after reserving slots (ms)=0  

  24. 13/03/12 09:26:30 INFO mapred.JobClient:     Total time spent by all maps waiting after reserving slots (ms)=0  

  25. 13/03/12 09:26:30 INFO mapred.JobClient:     Launched map tasks=16  

  26. 13/03/12 09:26:30 INFO mapred.JobClient:     Data-local map tasks=16  

  27. 13/03/12 09:26:30 INFO mapred.JobClient:     SLOTS_MILLIS_REDUCES=19608  

  28. 13/03/12 09:26:30 INFO mapred.JobClient:   File Output Format Counters   

  29. 13/03/12 09:26:30 INFO mapred.JobClient:     Bytes Written=15836  

  30. 13/03/12 09:26:30 INFO mapred.JobClient:   FileSystemCounters  

  31. 13/03/12 09:26:30 INFO mapred.JobClient:     FILE_BYTES_READ=23161  

  32. 13/03/12 09:26:30 INFO mapred.JobClient:     HDFS_BYTES_READ=29346  

  33. 13/03/12 09:26:30 INFO mapred.JobClient:     FILE_BYTES_WRITTEN=944157  

  34. 13/03/12 09:26:30 INFO mapred.JobClient:     HDFS_BYTES_WRITTEN=15836  

  35. 13/03/12 09:26:30 INFO mapred.JobClient:   File Input Format Counters   

  36. 13/03/12 09:26:30 INFO mapred.JobClient:     Bytes Read=27400  

  37. 13/03/12 09:26:30 INFO mapred.JobClient:   Map-Reduce Framework  

  38. 13/03/12 09:26:30 INFO mapred.JobClient:     Map output materialized bytes=23251  

  39. 13/03/12 09:26:30 INFO mapred.JobClient:     Map input records=778  

  40. 13/03/12 09:26:30 INFO mapred.JobClient:     Reduce shuffle bytes=23251  

  41. 13/03/12 09:26:30 INFO mapred.JobClient:     Spilled Records=2220  

  42. 13/03/12 09:26:30 INFO mapred.JobClient:     Map output bytes=36314  

  43. 13/03/12 09:26:30 INFO mapred.JobClient:     Total committed heap usage (bytes)=2736914432  

  44. 13/03/12 09:26:30 INFO mapred.JobClient:     CPU time spent (ms)=6550  

  45. 13/03/12 09:26:30 INFO mapred.JobClient:     Combine input records=2615  

  46. 13/03/12 09:26:30 INFO mapred.JobClient:     SPLIT_RAW_BYTES=1946  

  47. 13/03/12 09:26:30 INFO mapred.JobClient:     Reduce input records=1110  

  48. 13/03/12 09:26:30 INFO mapred.JobClient:     Reduce input groups=804  

  49. 13/03/12 09:26:30 INFO mapred.JobClient:     Combine output records=1110  

  50. 13/03/12 09:26:30 INFO mapred.JobClient:     Physical memory (bytes) snapshot=2738036736  

  51. 13/03/12 09:26:30 INFO mapred.JobClient:     Reduce output records=804  

  52. 13/03/12 09:26:30 INFO mapred.JobClient:     Virtual memory (bytes) snapshot=6773346304  

  53. 13/03/12 09:26:30 INFO mapred.JobClient:     Map output records=2615  

  54. hadoop@derekUbun:/usr/local/hadoop$   


显示输出结果


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:/usr/local/hadoop$ hadoop dfs -cat output/*  



当Hadoop结束时,能够经过stop-all.sh脚原本关闭Hadoop的守护进程


[plain] view plaincopy在CODE上查看代码片派生到个人代码片

  1. hadoop@derekUbun:/usr/local/hadoop$ bin/stop-all.sh  


如今,开始Hadoop之旅,实现一些算法吧!


注记:


1. 在伪分布模式,能够经过hadoop dfs -ls 查看input里的内容

2. 在伪分布模式,能够经过hadoop dfs -rmr 查看input里的内容

3. 在伪分布模式,input和output都在hadoop dfs文件里

相关文章
相关标签/搜索