1.基础环境
实验环境:
版本 | 主机名 | IP | 角色 |
---|---|---|---|
CentOS7.0 | hadoop1 | 192.168.183.160 | master |
CentOS7.0 | hadoop2 | 192.168.183.162 | nova |
CentOS7.0 | hadoop3 | 192.168.183.163 | nova |
JDK版本:jdk-7u79-linux-x64.tar.gz
Hadoop版本:hadoop-2.8.3.tar.gz
链接: https://pan.baidu.com/s/174OGr9oJ6M9vgid4QR5zPg 提取码: 2id2 复制这段内容后打开百度网盘手机App,操作更方便哦
实验要求:使用CentOS7成功搭建Hadoop集群为后续操作提供基础
1)修改主机名
[root@hadoop1 ~]# hostnamectl set-hostname hadoop1
[root@hadoop1 ~]# bash
[root@hadoop1 ~]#
[root@hadoop1 ~]# cat /etc/hostname //查看主机名
2)关闭防火墙
[root@hadoop1 ~]# systemctl stop firewalld.service && systemctl disable firewalld.service
Removed symlink /etc/systemd/system/multi-user.target.wants/firewalld.service.
Removed symlink /etc/systemd/system/dbus-org.fedoraproject.FirewallD1.service.
[root@hadoop1 ~]#
3)关闭SELinux
[root@hadoop1 ~]# sed -i "s/SELINUX=enforcing/SELINCX=disabled/g" /etc/selinux/config
[root@hadoop1 ~]# setenforce 0
setenforce: SELinux is disabled
[root@hadoop1 ~]# getenforce 0
Disabled
4)配置hosts文件
[root@hadoop1 ~]# vim /etc/hosts
添加以下内容:
192.168.183.160 hadoop1
192.168.183.162 hadoop2
192.168.183.163 hadoop3
5)测试网络
[root@hadoop1 ~]# ping -c3 baidu.com
PING baidu.com (220.181.38.251) 56(84) bytes of data.
64 bytes from 220.181.38.251 (220.181.38.251): icmp_seq=1 ttl=128 time=35.9 ms
64 bytes from 220.181.38.251 (220.181.38.251): icmp_seq=2 ttl=128 time=36.2 ms
64 bytes from 220.181.38.251 (220.181.38.251): icmp_seq=3 ttl=128 time=36.6 ms
--- baidu.com ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 2002ms
rtt min/avg/max/mdev = 35.952/36.274/36.611/0.269 ms
2.创建目录
在hadoop1主机上运行以下命令
[root@hadoop1 ~]# mkdir -p /hadoop/soft
[root@hadoop1 ~]# mkdir /hadoop/nn
[root@hadoop1 ~]# mkdir /hadoop/dn
[root@hadoop1 ~]# mkdir /hadoop/tmp
在hadoop2主机上运行以下命令
[root@hadoop2 ~]# mkdir /hadoop/soft
[root@hadoop2 ~]# mkdir /hadoop/secondarynn
[root@hadoop2 ~]# mkdir /hadoop/dn
[root@hadoop2 ~]# mkdir /hadoop/tmp
在hadoop3主机上运行以下命令
[root@hadoop3 ~]# mkdir /hadoop/soft
[root@hadoop3 ~]# mkdir /hadoop/dn
[root@hadoop3 ~]# mkdir /hadoop/tmp
3.SSH免密
免密码登录只需要配置主节点到其余各节点即可。
在 hadoop1 上使用 ssh-keygen 生成一对公私密钥(敲 3 个回车)
[root@hadoop1 ~]# ssh-keygen
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa): //直接回车
Created directory '/root/.ssh'.
Enter passphrase (empty for no passphrase): //直接回车
Enter same passphrase again: //直接回车
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
将公钥拷贝到需要被免密码的主机上
[root@localhost ~]# ssh-copy-id 192.168.183.160
[root@localhost ~]# ssh-copy-id 192.168.183.162
[root@localhost ~]# ssh-copy-id 192.168.183.163
4.JDK 安装
1)上传所需软件包
软件包检查,使用tar–tvf 文件名1>/dev/null检查压缩包完整性
[root@hadoop1 hadoop]# cd /opt
[root@hadoop1 opt]# tar -tvf jdk-7u79-linux-x64.tar.gz 1>/dev/null
[root@hadoop1 opt]# tar -tvf hadoop-2.8.3.tar.gz 1>/dev/null
2)解压并修改所有者
[root@hadoop1 opt]# tar -zxf jdk-7u79-linux-x64.tar.gz -C /hadoop/soft/
[root@hadoop1 opt]# chown -R root:root /hadoop/soft/jdk1.7.0_79/
[root@hadoop1 opt]# cd /hadoop/soft/
[root@hadoop1 soft]# ls -l
3)添加环境变量
[root@hadoop1 ~]# vim .bash_profile
添加如下内容
JAVA_HOME=/hadoop/soft/jdk1.7.0_79
PATH=$JAVA_HOME/bin:$PATH:$HOME/bin
#保存退出后刷新
[root@hadoop1 ~]# source .bash_profile
[root@hadoop1 ~]# java -version
java version "1.7.0_79"
Java(TM) SE Runtime Environment (build 1.7.0_79-b15)
Java HotSpot(TM) 64-Bit Server VM (build 24.79-b02, mixed mode)
[root@hadoop1 ~]#
4)配置其他节点的JDK
利用scp 命令将配置好的环境变量和软件目录拷贝到其他节点上;
-p:保留原文件的修改时间,访问时间和访问权限。
-q: 不显示传输进度条。
-r: 递归复制整个目录。
[root@hadoop1 soft]# scp /etc/profile hadoop2:/etc/
profile 100% 2074 2.3MB/s 00:00
[root@hadoop1 soft]# scp /etc/profile hadoop3:/etc/
profile 100% 2074 2.4MB/s 00:00
[root@hadoop1 soft]# scp -rpq /hadoop/soft/jdk1.7.0_79/ 192.168.183.162:/hadoop/soft
[root@hadoop1 soft]# scp -rpq /hadoop/soft/jdk1.7.0_79/ 192.168.183.163:/hadoop/soft
#拷贝完成后记得刷新
[root@hadoop2 ~]# source .bash_profile
5.安装Hadoop
1)上传压缩包及解压
#Hadoop所需要的软件包之前已与JDK包一起上传,所以直接解压并修改所有者
[root@hadoop1 opt]# tar -zxf hadoop-2.8.3.tar.gz -C /hadoop/soft
[root@hadoop1 opt]# chown -R root:root /hadoop/soft/hadoop-2.8.3/
2)修改配置文件
#进入 hadoop 配置文件目录
[root@hadoop1 soft]# cd /hadoop/soft/hadoop-2.8.3/etc/hadoop/