Hadoop学习笔记1:伪分布式环境搭建

在搭建Hadoop环境之前,请先阅读如下博文,把搭建Hadoop环境之前的准备工作做好,博文如下:

1、CentOS 6.7下安装JDK , 地址: http://blog.csdn.net/yulei_qq/article/details/51925673

2、CenOS虚拟机和Windows通信,地址:http://blog.csdn.net/yulei_qq/article/details/51930736

Hadoop 安装文件下载

                 本人使用的安装版本文件是hadoop-2.4.1.tar.gz ,下载地址:http://archive.apache.org/dist/hadoop/core/hadoop-2.4.1/            

Hadoop 伪分布式环境搭建

1、 在根目录下创建一个itcast目录

[root@itcast01 ~]# mkdir /itcast

2、解压缩刚下载的hadoop文件 到 itcast目录下.

[root@itcast01 ~]# tar -zxvf hadoop-2.4.1.tar.gz  -C /itcast

3、进入该itcast目录下查看解压后的hadoop文件.

              Hadoop学习笔记1:伪分布式环境搭建

4、解压塑之后,就需要配置Hadoop的环境变量,跟配置JDK环境变量差不多。

root@itcast01 hadoop-2.4.1]# vim /etc/profile

Hadoop学习笔记1:伪分布式环境搭建


配置好之后,保存退出,执行命令source  /etc/profile ,刷新配置.

5、Hadoop 配置文件修改.

                      要搭建Hadoop伪分布式环境,需要修改5个配置文件,配置文件都在 /itcast/hadoop-2.4.1/etc/hadoop 目录下面
                (1)  hadoop-env.sh 文件修改                    
[root@itcast01 hadoop]# vim hadoop-env.sh 

Hadoop学习笔记1:伪分布式环境搭建            

(2) core-site.xml 文件修改      
[root@itcast01 hadoop]# vim core-site.xml
                Hadoop学习笔记1:伪分布式环境搭建

<configuration>
<!--指定HDFS namenode的通信地址-->
<property>
<name>fs.defaultFS</name>
<value>hdfs://itcast01:9000</value>
</property>
<!--指定Hadoop运行时产生文件的存放目录-->
<property>
<name>hadoop.tmp.dir</name>
<value>/itcast/hadoop-2.4.1/tmp</value>
</property>
</configuration>
       (3)hdfs-site.xml  文件修改
         Hadoop学习笔记1:伪分布式环境搭建



<configuration>
<!--配置HDFS副本的数量-->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
  (4) mapred-site.xml 文件修改.
             原先文件是 mapred-site.xml.template ,所以需要重命名.        
[root@itcast01 hadoop]# mv mapred-site.xml.template   mapred-site.xml 

          Hadoop学习笔记1:伪分布式环境搭建    
(5) yarn-site.xml  文件修改
                 Hadoop学习笔记1:伪分布式环境搭建
<configuration>
<!--nodemanager获取数据的方式是shuffle-->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!--指定YARN的老大(ResourceManager)的地址-->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>itcast01</value>
</property>
</configuration>

6、初始化HDFS (格式化文件系统)

        1、 执行该命令 hdfs  namenode  format   
              Hadoop学习笔记1:伪分布式环境搭建

              格式化之后,会在hadoop目录下生成一个tmp 目录.
                  

7、启动Hadoop

              进入hadoop的sbin目录下,可以看见看到有很多启动文件命令.    
[root@itcast01 sbin]# pwd
/itcast/hadoop-2.4.1/sbin
[root@itcast01 sbin]# ll
total 116
-rwxr-xr-x. 1 67974 users 2752 Jun 21 2014 distribute-exclude.sh
-rwxr-xr-x. 1 67974 users 5814 Jun 21 2014 hadoop-daemon.sh
-rwxr-xr-x. 1 67974 users 1360 Jun 21 2014 hadoop-daemons.sh
-rwxr-xr-x. 1 67974 users 1597 Jun 21 2014 hdfs-config.cmd
-rwxr-xr-x. 1 67974 users 1427 Jun 21 2014 hdfs-config.sh
-rwxr-xr-x. 1 67974 users 2291 Jun 21 2014 httpfs.sh
-rwxr-xr-x. 1 67974 users 4063 Jun 21 2014 mr-jobhistory-daemon.sh
-rwxr-xr-x. 1 67974 users 1648 Jun 21 2014 refresh-namenodes.sh
-rwxr-xr-x. 1 67974 users 2145 Jun 21 2014 slaves.sh
-rwxr-xr-x. 1 67974 users 1727 Jun 21 2014 start-all.cmd
-rwxr-xr-x. 1 67974 users 1471 Jun 21 2014 start-all.sh
-rwxr-xr-x. 1 67974 users 1128 Jun 21 2014 start-balancer.sh
-rwxr-xr-x. 1 67974 users 1360 Jun 21 2014 start-dfs.cmd
-rwxr-xr-x. 1 67974 users 3705 Jun 21 2014 start-dfs.sh
-rwxr-xr-x. 1 67974 users 1357 Jun 21 2014 start-secure-dns.sh
-rwxr-xr-x. 1 67974 users 1524 Jun 21 2014 start-yarn.cmd
-rwxr-xr-x. 1 67974 users 1347 Jun 21 2014 start-yarn.sh
-rwxr-xr-x. 1 67974 users 1718 Jun 21 2014 stop-all.cmd
-rwxr-xr-x. 1 67974 users 1462 Jun 21 2014 stop-all.sh
-rwxr-xr-x. 1 67974 users 1179 Jun 21 2014 stop-balancer.sh
-rwxr-xr-x. 1 67974 users 1414 Jun 21 2014 stop-dfs.cmd
-rwxr-xr-x. 1 67974 users 3206 Jun 21 2014 stop-dfs.sh
-rwxr-xr-x. 1 67974 users 1340 Jun 21 2014 stop-secure-dns.sh
-rwxr-xr-x. 1 67974 users 1595 Jun 21 2014 stop-yarn.cmd
-rwxr-xr-x. 1 67974 users 1340 Jun 21 2014 stop-yarn.sh
-rwxr-xr-x. 1 67974 users 4278 Jun 21 2014 yarn-daemon.sh
-rwxr-xr-x. 1 67974 users 1353 Jun 21 2014 yarn-daemons.sh


启动Hadoop.
Hadoop学习笔记1:伪分布式环境搭建

使用start-all.sh 启动,需要多次输入密码,非常不方便. 从上面截图可以看出,已经正常启动了. 接下来用浏览器进行验证:

       http://192.168.8.118:50070 (HDFS管理界面)

http://192.168.8.118:8088 (MR管理界面)



Hadoop学习笔记1:伪分布式环境搭建
  
Hadoop学习笔记1:伪分布式环境搭建


Hadoop学习笔记1:伪分布式环境搭建


上一篇:一起学Python——数据类型详解


下一篇:oracle表空间不足,ORA-00604的解决方法