一、前提:已经安装了ZK、KAFKA、Hadoop
二、架构图:
hadoop101 | hadoop102 | hadoop103 | |
HDFS | NameNode | SecondaryNameNode | |
DataNode | DataNode | DataNode | |
YARN | ResourceManager | ||
NodeManager | NodeManager | NodeManager | |
ZK | zookeeper | zookeeper | zookeeper |
KAFKA | kafka | kafka | kafka |
HBASE | HMaster | HRegionServer | HRegionServer |
三、安装
1.下载tar包
2.解压tar包
tar -zxvf hbase-2.0.5 -C /opt/module
3.配置环境变量
#HBASE_HOME export HBASE_HOME=/opt/module/hbase-2.0.5 export PATH=$PATH:$HBASE_HOME/bin
4.配置hbse-env.sh
[root@hadoop101 conf]$ cat hbase-env.sh #!/usr/bin/env bash ……………… # The java implementation to use. Java 1.8+ required. # export JAVA_HOME=/usr/java/jdk1.8.0/ export JAVA_HOME=${JAVA_HOME} # 自己的java路径 # Extra Java CLASSPATH elements. Optional. # hadoop配置文件的位置 # export HBASE_CLASSPATH= export HBASE_CLASSPATH=${HADOOP_HOME}/etc/hadoop/ ……………… # Tell HBase whether it should manage it's own instance of ZooKeeper or not. # 如果使用独立安装的zookeeper这个地方就是false # export HBASE_MANAGES_ZK=true export HBASE_MANAGES_ZK=false ………………
5.配置hbase-site.xml
<property> <name> hbase.master.port</name> <!-- hbasemaster的端口 --> <value>16000</value> </property> <property> <name>hbase.tmp.dir</name> <!-- hbase 临时存储 --> <value>/opt/module/hbase-2.0.5/tmp</value> </property> <property> <name>hbase.master.maxclockskew</name> <!-- 时间同步允许的时间差 单位毫秒 --> <value>180000</value> </property> <property> <name>hbase.rootdir</name> <value>hdfs://hadoop101:9000/hbase</value> <!-- hbase共享目录,持久化hbase数据 存放在对应的HDFS上 --> </property> <property> <name>hbase.cluster.distributed</name> <!-- 是否分布式运行,false即为单机 --> <value>true</value> </property> <property> <name>hbase.zookeeper.property.clientPort</name> <!-- zookeeper端口 --> <value>2181</value> </property> <property> <name>hbase.zookeeper.quorum</name> <!-- zookeeper地址 --> <value>hadoop101,hadoop102,hadoop103</value> </property> <property> <name>hbase.zookeeper.property.dataDir</name> <!-- zookeeper配置信息快照的位置 --> <value>/opt/module/hbase-2.0.5/tmp/zookeeper</value> </property>
6.配置regionservers
hadoop101 hadoop102 hadoop103
四、启动
1.启动zk
2.启动kafka
3.启动hdfs
4.启动Yarn
5.启动Hbase
# 开启
bin/start-hbase.sh
# 关闭
bin/stop-hbase.sh
6.正常开启所有进程图
7.浏览器输入:hadoop101:16010