Hadoop 单机安装教程

Hadoop 单机安装教程

本文原始地址:https://sitoi.cn/posts/24540.html

安装环境

  • Fedora 29
  • openjdk version "1.8.0_191"

安装步骤

  • 创建 Hadoop 帐号
  • 下载 Hadoop 安装包
  • 解压 Hadoop 安装包
  • 配置环境变量
  • 配置 Hadoop 文件
  • 启动集群
  • 查看状态

创建 Hadoop 帐号

为 Hadoop 创建一个专门的账号
sudo adduser hadoop
sudo passwd hadoop
授予 Hadoop root 权限

为了测试,图方便,这里给Hadoop root权限,生产环境不建议这样做。

使用root权限编辑/etc/sudoers:

sudo vim /etc/sudoers

末尾添加一行:

hadoop  ALL=(ALL) ALL

切换到Hadoop账号:

su hadoop
配置 SSH 无密码登录

首先生成公私密钥对

ssh-keygen -t rsa

指定 key pair 的存放位置

回车默认存放于/home/hadoop/.ssh/id_rsa输入passphrase,这里直接回车,为空,确保无密码可登陆。

拷贝生成的公钥到授权 key 文件(authorized_keys)

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

改变 key 权限为拥有者可读可写(0600)

chmod 0600 ~/.ssh/authorized_keys

chomod命令参考:

chmod 600 file – owner can read and write
chmod 700 file – owner can read, write and execute
chmod 666 file – all can read and write
chmod 777 file – all can read, write and execute

测试是否成功

ssh localhost

下载 Hadoop 安装包

cd ~
wget http://192.168.1.60/apache/hadoop/common/hadoop-3.0.1/hadoop-3.0.1.tar.gz

解压 Hadoop 安装包

最好做个关联 ln -s hadoop-3.0.1 hadoop

tar -zxvf hadoop-3.0.1.tar.gz
mv hadoop-3.0.1 hadoop

配置环境变量

编辑 ~/.bashrc 文件

vim ~/.bashrc

添加以下环境变量

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
export HADOOP_HOME=/home/hadoop/hadoop
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native

使配置文件生效

source ~/.bashrc

配置 Hadoop 文件

修改 hadoop/core-site.xml 配置文件

vim $HADOOP_HOME/etc/hadoop/core-site.xml

修改以下内容:

<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>

修改 hadoop/hdfs-site.xml 配置文件

vim $HADOOP_HOME/etc/hadoop/hdfs-site.xml

修改以下内容:

<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property> <property>
<name>dfs.name.dir</name>
<value>file:///home/hadoop/hadoopdata/hdfs/namenode</value>
</property> <property>
<name>dfs.data.dir</name>
<value>file:///home/hadoop/hadoopdata/hdfs/datanode</value>
</property>
</configuration>

修改 hadoop/mapred-site.xml 配置文件

vim $HADOOP_HOME/etc/hadoop/mapred-site.xml

修改以下内容:

 <configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>

修改 hadoop/yarn-site.xml 配置文件

vim $HADOOP_HOME/etc/hadoop/yarn-site.xml

修改以下内容:

<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>

启动集群

格式化 Hadoop 文件系统
hdfs namenode -format
启动 HDFS
$HADOOP_HOME/sbin/start-dfs.sh

注:若是 JAVA_HOME 没设置错误

vim $HADOOP_HOME/etc/hadoop/hadoop-env.sh

在末尾加上:

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
启动 YARN
$HADOOP_HOME/sbin/start-yarn.sh

查看状态

查看 HDFS 状态,浏览器访问: http://localhost:9870

上一篇:struts2总体介绍


下一篇:HttpClient MultipartEntityBuilder 上传文件