hadoop分布式搭建
完全分布式结构
host |
NN |
SNN |
DN |
tongyuzhe1 |
* |
|
|
tongyuzhe2 |
|
* |
* |
tongyuzhe3 |
|
|
* |
tongyuzhe4 |
|
|
* |
hadoop配置目录
如果出现启动失败,就把/tmp和配置文件目录还有hadoop软件文件夹都删除
全部重新弄
#进入hadoop配置目录
cd $HADOOP_HOME/etc/hadoop
角色启动位置
#hadoop配置文件千万不能有空行之类的
NameNode启动位置
#修改文件
vi core-site.xml
#在<configuration>内添加
<property>
<name>fs.defaultFS</name>
<value>hdfs://tongyuzhe1:9000/</value>
</property>
DataNode启动位置
vi slaves
#添加主机名
tongyuzhe2
tongyuzhe3
tongyuzhe4
SecondaryNameNode启动位置
#修改文件
vi hdfs-site.xml
#在<configuration>内添加
<property>
<!--修改SecondaryNameNode主机-->
<name>dfs.namenode.secondary.http-address</name>
<value>tongyuzhe2:50090</value>
</property>
角色启动细节
#修改文件
vi hdfs-site.xml
#在<configuration>内添加
文件块副本数
<!--完全分布式分布式,我们可以设置成2块副本-->
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
NameNode存放位置
<property>
<!--指定namenode存放的文件夹-->
<name>dfs.namenode.name.dir</name>
<!--这里我们换一个新的目录,local换成full-->
<value>/var/bigdata/hadoop/full/dfs/name</value>
</property>
DataNode存放位置
<property>
<!--指定datanode存放的文件夹-->
<name>dfs.datanode.data.dir</name>
<!--这里我们换一个新的目录,local换成full-->
<value>/var/bigdata/hadoop/full/dfs/data</value>
</property>
SecondaryNameNode存放位置
<property>
<!--修改SecondaryNameNode目录-->
<name>dfs.namenode.checkpoint.dir</name>
<!--这里我们换一个新的目录,local换成full-->
<value>/var/bigdata/hadoop/full/dfs/secondary</value>
</property>
内容分发
scp -r /opt/bigdata/hadoop-2.6.5/etc/hadoop/ tongyuzhe4:/opt/bigdata/hadoop-2.6.5/etc/
格式化启动
#只在NameNode节点格式化启动
#初始化
#会创建目录
#初始化一个空的fsimage
#创建VERSION配置文件,随机分配个CID
hdfs namenode -format