完全分布模式hadoop集群安装配置之二 添加新节点组成分布式集群

前文说到如何搭建集群中第一个节点,这篇将说到如何向集群添加节点。这篇是基于前文的,没有看过前文的可以参考此链接:http://www.cnblogs.com/mikelij/archive/2012/03/06/2380937.html

 

2 向集群添加节点

 

  前文已经建立了一个节点的hadoop集群。现在要做的添加节点。安装JDK, 创建hadoop用户等见前文。这里就不重复了。

 

2.1 检查主机名,修改/etc/hostname, /etc/hosts

 

新节点需要在这个集群里叫一个名字,给此节点命名,比如slavenode1, slavenode2, etc.集群里新加入的服务器都需要在/etc/hostname中改名,将规定的服务器名放在/etc/hostname文件中。然后将已有服务器上的/etc/hosts拷贝过来。再加上此新节点的主机名。然后再复制到群里每一个服务器中。即所有集群中服务器的/etc/hosts文件要一样。

 

2.2 配置SSH Key以便hadoop用户无密码登录集群

 

  与前文不同的是,此处只需要将之前的节点产生的ssh key等拷贝过来就可以了。用hadoop用户登录,

sudo apt-get install ssh

安装完ssh就可以从已有的服务器上拷贝ssh key了。

mkdir /home/hadoop/.ssh

scp hadoop@namenode:/home/hadoop/.ssh/* /home/hadoop/.ssh/

这就拷贝过来了。之所以要从已有服务器上拷贝ssh key,是因为如果两个服务器的ssh key不一致,则第一次连服务器时,还是需要密码的。这里的需求是hadoop用户连任何一个集群中的服务器都不需要密码,因此需要拷贝已有服务器上的ssh key.

下面需要从此节点用ssh命令连 到已有的所有节点上去。已有的节点只有一个时,假设本节点的主机名是slavenode1, 就ssh namenode, ssh localhost, ssh slavenode1。如果已经有namenode, slavenode1, slavenode2... 到slavenode6, 那么就尝试ssh namenode, ssh slavenode1, ssh slavenode2, ..., ssh slavenode6, ssh localhost. 保证这些连接都是不需要密码就可连接的就可以了。另外在换到其他机器上,都ssh 此节点的主机名,如ssh slavenode1s。这样的方法,就可以保证每台机器间都可以用ssh无密码就可以连接。用的用户都是hadoop。

 

2.3 安装hadoop包

   可参考前文的1.5, 这里就不重复了。

 

2.4 namenode上的hadoop配置

 

 集群里要加入新的节点,可以在namenode服务器上的mapred-site.xml中加入dfs.hosts和mapred.hosts两个元素。即象这样:

<property>
  <name>dfs.hosts</name>
  <value>/usr/local/hadoop/hadoop-0.20.203.0/conf/slaves</value>
</property>
<property>
  <name>mapred.hosts</name>
  <value>/usr/local/hadoop/hadoop-0.20.203.0/conf/slaves</value>
</property>

然后再在/usr/local/hadoop/hadoop-0.20.203.0/conf/slaves文件中写上集群中所有的节点的主机名。一个主机名占一行。如:

namenode

slavenode1

slavenode2

...

如果dfs.hosts和mapred.hosts已经加好了,就只需要到slaves中加入一行。

 

2.5 新加入节点的hadoop配置

 

集群中所有节点的hadoop配置要全部保持一致。即那些core-site.xml, hdfs-site.xml, mapred-site.xml, masters, slaves可以从已有节点处拷贝过来。包括/etc/environment也可以从已有节点那里拷贝过来。用scp命令,上面已经用过了,再用scp拷贝这些文件过来。

 

2.6 新加入节点启动

start-dfs.sh

start-mapred.sh

 

2.7 通知namenode和jobtracker有新节点加入

在第一台服务器(namenode兼jobtracker)运行的情况下,到第一台服务器那里,

hadoop dfsadmin -refreshNodes

这是通知hdfs有新节点加入

hadoop mradmin -refreshNodes

这是通知jobtracker有新节点加入

 

2.8 验证集群是否正常工作

还是老办法,用一些常用命令将一些服务器上的本地文件方到服务器上,如:

hadoop fs -put testfolder uploadfolder

再拷贝,删除等做一做。

另外验证jobtracker和所有的tasktracker是否正常工作,还是用wordcount示例来运行:

hadoop jar hadoop-examples-0.20.203.0.jar wordcount input output

得到大概这样的结果就对了, 即map增长到100%, reduce也增长到100%。

访问http://namenode:50070/ 可以看到集群里所有的datanode

还有http://namenode:50030/ 可以看到集群里所有的tasktracker

 

2.7 启动集群

namenode上运行:

start-all.sh

slavenode上运行:

start-dfs.sh

start-mapred.sh

 

2.8 停止集群

slavenode上运行:

stop-mapred.sh

stop-dfs.sh

namenode上运行:

stop-all.sh

 

2.9 遇到的问题

Too many fetch-failures问题

这次还是遇到了这个问题,和单机时一样的错误信息Too many fetch-failures,略有不同的是reduce不是卡在0%,而是卡在17%那里就不动了。

这次又是到处检查,最后发现是第一台服务器的/etc/hosts文件里少写了一个服务器名字。将这个服务器名字补上以后,这个wordcount示例就可以正常运行了。

所以集群中所有服务器的/etc/hosts, core-site.xml, hdfs-site.xml, mapred-site.xml, masters, slaves,还有ssh key所在.ssh目录等文件和目录都需完全一样。

 

以上说的是往集群里添加节点,这里说的是添加第二个节点,此过程适用于以后所有新节点的添加。第三个一直到第n个都是按同样的方法来添加。只要重复以上过程就可以了。

本文就说到这里。后文再说一些hadoop集群管理的内容。

 

 

上一篇:从 hadoop 1.0 到 hadoop 2.0 的演化


下一篇:四大组件之ContentProvider小结