折腾hadoop很久,期间几回彻底推到重来,如今在这里写下来备份。本文不是写给别人做为教程,而是给我本身做提醒的,若是你碰巧看到了本文,那你可能须要一些linux基本知识才能正确理解。node
1,安装linuxlinux
本文假设从裸机开始,因此要先装linux。本人是ubuntu对支持者,因此装的是ubuntu,废话没有,很容易就装好了。在安装过程当中,要注意全部节点对主机名应该有规律,好比node0, node1, node2 ...ubuntu
2,准备缓存
下面对软件对安装,全都使用了apt,这个软件须要互联网连接,若是你对网速极慢,或者根本连接不到外部网络(这个现象在教育网内很常见),能够从一个能上网对ubuntu电脑上的/var/cache/apt/archives文件夹里deb文件出来安装(什么?你问我这个文件夹里为何没有想要的包,这个文件夹是apt对缓存文件夹,想要里面有你想要对东西,不用我提醒你应该怎么办了吧)。安全
ubuntu默认已经装好了openssh-client,须要安装openssh-server。命令以下:服务器
sudo apt-get install openssh-server
而后是jdk:网络
sudo apt-get install default-jdk
3,配置网络ssh
若是你的节点们能够经过dhcp服务器得到ip,我我的建议,这样作,缘由是简单,不用怎么配置就搞定了。或者可使用静态ip,做为一个牛b的linux大牛,应该能够经过一行命令来设置静态ip,可是我不会。我一般都是在gnome提供的网络管理器来设ip对。若是你用对linux里没有图形界面,那样请google。oop
设置好了ip地址以后,记忆在/etc/hosts文件中给每一个节点起个名字,最好就是各自对主机名,这样有利于下面对配置和管理。google
hadoop要求各节点间能够不须要输入密码就能用ssh互相登陆。我使用了比官方方法简单一点方法来设置,可是听说安全性有点儿问题。下面是方法:
在某个节点上执行以下命令:
rm -rf ~/.ssh
ssh-keygen -t rsa
这个命令以后须要多按几回回车,知道再次出现命令提示符。固然,这个作法也不是很安全,里面有个输入key的地方,官方的建议是,输入一首歌的歌词,呵呵,这个建议很搞笑。固然在个人步骤中,这个key就是空值了。
cat ~/.ssh/id_rsa.pub >> authorized_keys
而后把整个.ssh文件夹考到全部对节点上,具体方法可使用scp命令,具体命令因为和具体环境有关,下面不写。
这样网络就设置对差很少了。
4,安装hadoop
解压,这个比较简单,命令不写。解压对位置最好每一个hadoop都同样,不同有什么后果,我没试过。
以后要进行一些配置,首先进入解压后目录对conf文件夹,要修改对配置文件包括hadoop-env.sh hadoop-site.xml masters slaves
hadoop-env.sh中要uncomment下面一行:
export JAVA_HOME=/home/hadoop/jdk1.6.0_16/
固然具体的值,也要根据具体状况进行更改。
接下来是hadoop-site.xml,下面是个人文件内容。
<configuration> <property> <name>fs.default.name</name> <value>hdfs://node0:6000</value> </property> <property> <name>mapred.job.tracker</name> <value>node0:6001</value> </property> </configuratiron>
这个例子很直白,不解释。
masters里面是jobtracker和namenode所在节点的主机名或者ip地址,个人masters文件里只有一行,固然若是你想要设置多个节点做为主节点,也能够。
slaves里面是全部tasktracker和datanode对主机名或ip地址。
5,运行
先进入hadoop安装文件夹。而后依次运行以下命令:
bin/hadoop namenode -format bin/start-all.sh
不出意外的话,如今hadoop就可使用了。