下面运行步骤除了配置文件有部分改动,其余都是参照hadoop下载解压的share/doc/index.html。html
hadoop下载:http://apache.opencas.org/hadoop/common/java
解压至无空格目录下便可,下面是目录结构:node
下面配置windows环境:linux
Java JDK :git
我采用的是1.8的,配置JAVA_HOME,若是默认安装,会安装在C:\Program Files\Java\jdk1.8.0_51。此目录存在空格,启动hadoop时将报错,JAVA_HOME is incorrect ...此时须要将环境变量JAVA_HOME值修改成:C:\Progra~1\Java\jdk1.8.0_51,Program Files能够有Progra~代替。github
Hadoop 环境变量:
apache
新建HADOOP_HOME,指向hadoop解压目录,如:D:/hadoop。path环境变量中增长:%HADOOP_HOME%\bin;。windows
Hadoop 依赖库:api
winutils相关,hadoop在windows上运行须要winutils支持和hadoop.dll等文件,下载地址:http://download.csdn.net/detail/fly_leopard/9503059浏览器
注意hadoop.dll等文件不要与hadoop冲突。为了避免出现依赖性错误能够将hadoop.dll放到c:/windows/System32下一份。
hadoop环境测试:
起一个cmd窗口,起到hadoop/bin下,hadoop version,显示以下:
hadoop基本文件配置:hadoop配置文件位于:hadoop/etc/hadoop下
core-site.xml / hdfs-site.xml / mapred-site.xml / yarn-site.xml
core-site.xml:
hdfs-site.xml:
mapred-site.xml:
格式化系统文件:
hadoop/bin下执行 hdfs namenode -format
待执行完毕便可,不要重复format。
格式化完成后到hadoop/sbin下执行 start-dfs启动hadoop
(不是必须的 ) 建立目录:用于输入和输出,Linux上是/user/用户名/xx
windows上可能没具体要求,我建立也是按照liunx目录方式的。参照的api doc上面
建立完成能够经过hdfs dfs-ls 目录名称查看,也能够在浏览器中查看建立的目录或文件

input输入文件到目录:login_weibo2是我本身建立的文本文件,位于hadoop一个盘的。此处是D:/hadoop/login_weibo2
若是了解命令参数输入hdfs dfs回车查看dfs命令参数 。hdfs dfs -put回车查看put相关参数。其余命令也是这样。
查看input输入的文件内容:
运行hadoop给的examples,作个参考,运行下面命令等待执行完成。hadoop jar jar文件位置 grep 输入目录(包含被处理文件的目录) 输出目录(运行结果输出目录)
而后查看文件夹下多了些东西,就是运行结果输出目录,结果般存在part-r-xxxx里面。
在hadoop/sbin下启动start-yarn,访问http://localhost:8088可查看 资源、节点管理
Tip: (1)本身按照这个帖子配置好了,也启动成功了,所以放到第一个,我用的版本的2.8.1,执行启动的时候不要先入为主的认为切换到bin目录,实际是切换到sbin目录! (2)至于“winutils”和“hadoop.dll”的文件下载,文中地址失效了!能够去这个地址https://github.com/steveloughran/winutils下载,并且下载的时候不要用右键-->另存为,而是要点击“winutils.exe”后到页面中找到Download按钮下载!