一. cloudera manager的概念
简单来说,Cloudera Manager是一个拥有集群自动化安装、中心化管理、集群监控、报警功能的一个工具(软件),使得安装集群从几天的时间缩短在几个小时内,运维人员从数十人降低到几人以内,极大的提高集群管理的效率。
功能:
1) 管理:对集群进行管理,如添加、删除节点等操作。
2) 监控:监控集群的健康情况,对设置的各种指标和系统运行情况进行全面监控。
3) 诊断:对集群出现的问题进行诊断,对出现的问题给出建议解决方案。
4) 集成:多组件进行整合。
架构:
1) Server:负责软件安装、配置,启动和停止服务,管理服务运行的群集。核心
2) Agent:安装在每台主机上。负责启动和停止进程,配置,监控主机。
3) Management Service:由一组执行各种监控,警报和报告功能角色的服务。图表的生成和管理
4) Database:存储配置和监视信息。
5) Cloudera Repository:软件由Cloudera 管理分布存储库。(有点类似Maven的中心仓库);在线安装(从中心仓库拉取)和离线安装(离线库)
6) Clients:是用于与服务器进行交互的接口(API和Admin Console)
二. 准备安装环境
主节点10g /16G
其他节点2G /4G
其他节点2G /4G
硬盘情况:
[root@hadoop101 ~]# df -h
1. SSH免密登录
配置hadoop101对hadoop101、hadoop102、hadoop103三台服务器免密登录。CDH服务开启与关闭是通过server和agent来完成的,所以这里不需要配置SSH免密登录,但是为了我们分发文件方便,在这里我们也配置SSH。
1)生成公钥和私钥:
[root@hadoop101 .ssh]$ ssh-keygen -t rsa
然后敲(三个回车),就会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
2)将公钥拷贝到要免密登录的目标机器上
[root@hadoop101 .ssh]$ ssh-copy-id hadoop101
[root@hadoop101 .ssh]$ ssh-copy-id hadoop102
[root@hadoop101 .ssh]$ ssh-copy-id hadoop103
3)重复1和2的操作,配置hadoop102对hadoop101、hadoop102、hadoop103三台服务器免密登录。
2. 集群同步脚本
1)在/root目录下创建bin目录,并在bin目录下创建文件xsync,文件内容如下:
[root@hadoop101 ~]$ mkdir bin
[root@hadoop101 ~]$ cd bin/
[root@hadoop101 bin]$ vi xsync
#!/bin/bash # 获取输入参数个数,如果没有参数,直接退出
pcount=$#
if((pcount==)); then
echo no args;
exit;
fi # 获取文件名称
p1=$
fname=`basename $p1`
echo fname=$fname # 获取上级目录到绝对路径
pdir=`cd -P $(dirname $p1); pwd`
echo pdir=$pdir # 获取当前用户名称
user=`whoami` # 循环
for((host=; host<; host++)); do
echo ------------------- hadoop$host --------------
rsync -av $pdir/$fname $user@hadoop$host:$pdir
done
2)修改脚本 xsync 具有执行权限
[root@hadoop101 bin]$ chmod xsync
3. 安装JDK(三台)
1)解压JDK到/opt/module目录下,并修改文件的所有者和所有者组为root
[root@hadoop101 software]$ tar -zxvf jdk-8u144-linux-x64.tar.gz -C /opt/module/ [root@hadoop101 module]# chown root:root jdk1..0_144/ -R
2)配置JDK环境变量
(1)打开/etc/profile文件
[root@hadoop101 software]$ vi /etc/profile
在profile文件末尾添加JDK路径 #JAVA_HOME
export JAVA_HOME=/opt/module/jdk1..0_144
export PATH=$PATH:$JAVA_HOME/bin
(2)让修改后的文件生效
[root@hadoop101 jdk1..0_144]$ source /etc/profile
3)测试JDK是否安装成功
[root@hadoop101 jdk1..0_144]# java -version
java version "1.8.0_144"
4)将hadoop101中的JDK和环境变量分发到hadoop102、hadoop103两台主机
[root@hadoop101 opt]# xsync /opt/module/
[root@hadoop101 opt]# xsync /etc/profile
分别在hadoop102、hadoop103上source一下
[root@hadoop102 ~]$ source /etc/profile
[root@hadoop103 ~]# source /etc/profile
4. 集群整体操作脚本
1)在/root/bin目录下创建脚本xcall.sh
[root@hadoop101 bin]$ vim xcall.sh
#! /bin/bash for i in hadoop101 hadoop102 hadoop103
do
echo --------- $i ----------
ssh $i "$*"
done
2)修改脚本执行权限
[root@hadoop101 bin]$ chmod xcall.sh
3)将/etc/profile文件追加到~/.bashrc后面
[root@hadoop101 module]# cat /etc/profile >> ~/.bashrc
[root@hadoop102 module]# cat /etc/profile >> ~/.bashrc
[root@hadoop103 module]# cat /etc/profile >> ~/.bashrc
4)测试
[root@hadoop101 bin]# xcall.sh jps
5. 安装MySQL
注意:一定要用root用户操作如下步骤;先卸载MySQL再安装
[root@hadoop101 software]# ll
总用量 2387020
-rw-r--r--. 1 root root 1620405492 4月 5 14:52 CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel
-rw-r--r--. 1 root root 41 4月 5 14:51 CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha1
-rw-r--r--. 1 root root 742029734 4月 5 14:52 cloudera-manager-el6-cm5.12.1_x86_64.tar.gz
-rw-r--r--. 1 root root 72312 4月 5 14:52 manifest.json
-rw-r--r--. 1 root root 77807942 4月 5 14:54 mysql-libs.zip
-rw-r--r--. 1 root root 3969752 4月 5 14:52 MySQL-shared-compat-5.6.41-1.el6.x86_64.rpm
[root@hadoop101 software]# unzip mysql-libs.zip
Archive: mysql-libs.zip
creating: mysql-libs/
inflating: mysql-libs/MySQL-client-5.6.24-1.el6.x86_64.rpm
inflating: mysql-libs/mysql-connector-java-5.1.27.tar.gz
inflating: mysql-libs/MySQL-server-5.6.24-1.el6.x86_64.rpm [root@hadoop101 mysql-libs]# rpm -ivh MySQL-server-5.6.24-1.el6.x86_64.rpm [root@hadoop101 mysql-libs]# cat /root/.mysql_secret
# The random password set for the root user at Sun Apr 5 14:55:45 2020 (local time): SEACIwdkL2dPI8_g [root@hadoop101 mysql-libs]# service mysql start
Starting MySQL.... [确定]
[root@hadoop101 mysql-libs]# rpm -ivh MySQL-client-5.6.24-1.el6.x86_64.rpm [root@hadoop101 mysql-libs]# mysql -uroot -pSEACIwdkL2dPI8_g mysql> SET PASSWORD=PASSWORD('');
Query OK, 0 rows affected (0.00 sec)
[root@hadoop101 mysql-libs]# mysql -uroot -p123456 mysql> select User, Host, Password from mysql.user;
+------+-----------+-------------------------------------------+
| User | Host | Password |
+------+-----------+-------------------------------------------+
| root | localhost | *6BB4837EB74329105EE4568DDA7DC67ED2CA2AD9 |
| root | hadoop101 | *5750A2405D7ED53B669267E80F41E095C3BABC0E |
| root | 127.0.0.1 | *5750A2405D7ED53B669267E80F41E095C3BABC0E |
| root | ::1 | *5750A2405D7ED53B669267E80F41E095C3BABC0E |
+------+-----------+-------------------------------------------+
4 rows in set (0.00 sec) mysql> update user set host='%' where host='localhost';
Query OK, 1 row affected (0.00 sec)
Rows matched: 1 Changed: 1 Warnings: 0 mysql> delete from user where Host='hadoop101';
Query OK, 1 row affected (0.00 sec) mysql> delete from user where Host='127.0.0.1';
Query OK, 1 row affected (0.00 sec) mysql> delete from user where Host='::1';
Query OK, 1 row affected (0.00 sec) mysql> flush privileges;
Query OK, 0 rows affected (0.00 sec) mysql> select User, Host, Password from user;
+------+------+-------------------------------------------+
| User | Host | Password |
+------+------+-------------------------------------------+
| root | % | *6BB4837EB74329105EE4568DDA7DC67ED2CA2AD9 |
+------+------+-------------------------------------------+
1 row in set (0.00 sec)
6. 创建CM用的数据库:
[root@hadoop101 ~]# mysql -uroot -p123456
(1)集群监控数据库
create database amon DEFAULT CHARSET utf8 COLLATE utf8_general_ci;
(2)hive数据库
create database hive DEFAULT CHARSET utf8 COLLATE utf8_general_ci; ##安装Hive时需要创建hive数据库;如果安装失败要把它删除重写创建
(3)oozie数据库
create database oozie DEFAULT CHARSET utf8 COLLATE utf8_general_ci;
(4)hue数据库
create database hue DEFAULT CHARSET utf8 COLLATE utf8_general_ci;
7. 下载第三方依赖
依次在三台节点(所有Agent的节点)上执行下载第三方依赖(注意:需要联网)
[root@hadoop101 ~]# yum -y install chkconfig python bind-utils psmisc libxslt zlib sqlite cyrus-sasl-plain cyrus-sasl-gssapi fuse fuse-libs redhat-lsb
[root@hadoop102 ~]# yum -y install chkconfig python bind-utils psmisc libxslt zlib sqlite cyrus-sasl-plain cyrus-sasl-gssapi fuse fuse-libs redhat-lsb
[root@hadoop103 ~]# yum -y install chkconfig python bind-utils psmisc libxslt zlib sqlite cyrus-sasl-plain cyrus-sasl-gssapi fuse fuse-libs redhat-lsb
关闭SELINUX
安全增强型Linux(Security-Enhanced Linux)简称SELinux,它是一个 Linux 内核模块,也是Linux的一个安全子系统。为了避免安装过程出现各种错误,建议关闭,有如下两种关闭方法:
1)临时关闭(不建议使用)
[root@hadoop101 ~]# setenforce 0
但是这种方式只对当次启动有效,重启机器后会失效。
2)永久关闭(建议使用)
修改配置文件/etc/selinux/config
[root@hadoop101 ~]# vim /etc/selinux/config
将SELINUX=enforcing 改为SELINUX=disabled
SELINUX=disabled
3)同步/etc/selinux/config配置文件
[root@hadoop101 ~]# xsync /etc/selinux/config
4)重启hadoop101、hadoop102、hadoop103主机
[root@hadoop101 ~]# reboot
[root@hadoop102 ~]# reboot
[root@hadoop103 ~]# reboot
1.2.10 配置NTP时钟同步
1)NTP服务器配置
[root@hadoop101 ~]# vi /etc/ntp.conf
①注释掉所有的restrict开头的配置
②修改#restrict 192.168.1.0 mask 255.255.255.0 nomodify notrap
为restrict 192.168.1.101 mask 255.255.255.0 nomodify notrap
③将所有server配置进行注释
④添加下面两行内容
server 127.127.1.0
fudge 127.127.1.0 stratum 10
2)启动NTP服务 service ntpd start
[root@hadoop101 ~]# service ntpd start
3)NTP客户端配置(在agent主机上进行配置hadoop102,hadoop103)
[root@hadoop102 ~]# vi /etc/ntp.conf
①注释所有restrict和server配置
②添加server 192.168.1.101
4)手动测试
[root@hadoop102 ~]# ntpdate 192.168.1.101
显示如下内容为成功:
17 Jun 15:34:38 ntpdate[]: step time server 192.168.1.101 offset 77556618.173854 sec
如果显示如下内容需要先关闭ntpd:
17 Jun 15:25:42 ntpdate[]: the NTP socket is in use, exiting
5)启动ntpd并设置为开机自启(每个节点hadoop101,hadoop102,hadoop103)
[root@hadoop102 ~]# chkconfig ntpd on
[root@hadoop102 ~]# service ntpd start
6)使用群发date命令查看结果
3. CM安装部署
1)CM下载地址:http://archive.cloudera.com/cm5/cm/5/
2)离线库下载地址:http://archive.cloudera.com/cdh5/parcels
注:以下所有操作均使用root用户
1)创建/opt/module/cm目录
[root@hadoop101 module]# mkdir –p /opt/module/cm
2)上传cloudera-manager-el6-cm5.12.1_x86_64.tar.gz到hadoop101的/opt/software目录,并解压到/opt/module/cm目录
[root@hadoop101 software]# tar -zxvf cloudera-manager-el6-cm5..1_x86_64.tar.gz -C /opt/module/cm
3)分别在hadoop101、hadoop102、hadoop103创建用户cloudera-scm
[root@hadoop101 module]#
useradd \
--system \
--home=/opt/module/cm/cm-5.12./run/cloudera-scm-server \
--no-create-home \
--shell=/bin/false \
--comment "Cloudera SCM User" cloudera-scm [root@hadoop102 module]#
useradd \
--system \
--home=/opt/module/cm/cm-5.12./run/cloudera-scm-server \
--no-create-home \
--shell=/bin/false \
--comment "Cloudera SCM User" cloudera-scm [root@hadoop103 module]#
useradd \
--system \
--home=/opt/module/cm/cm-5.12./run/cloudera-scm-server \
--no-create-home \
--shell=/bin/false \
--comment "Cloudera SCM User" cloudera-scm
参数说明:
--system 创建一个系统账户
--home 指定用户登入时的主目录,替换系统默认值/home/<用户名>
--no-create-home 不要创建用户的主目录
--shell 用户的登录 shell 名
--comment 用户的描述信息
注意:Cloudera Manager默认去找用户cloudera-scm,创建完该用户后,将自动使用此用户。
4)修改CM Agent配置
修改文件/opt/module/cm/cm-5.12.1/etc/cloudera-scm-agent/ config.ini的主机名称
[root@hadoop101 cloudera-scm-agent]# vim /opt/module/cm/cm-5.12./etc/cloudera-scm-agent/config.ini 修改主机名称
server_host=hadoop101
5)配置CM的数据库 ,在主节点创建即可。
拷贝mysql-connector-java-5.1.27-bin.jar文件到目录 /usr/share/java/
[root@hadoop101 cm]# mkdir –p /usr/share/java/
[root@hadoop101 mysql-libs]# tar -zxvf mysql-connector-java-5.1..tar.gz
[root@hadoop101 mysql-libs]# cp /opt/software/mysql-libs/mysql-connector-java-5.1./mysql-connector-java-5.1.-bin.jar /usr/share/java/
[root@hadoop101 mysql-libs]# mv /usr/share/java/mysql-connector-java-5.1.-bin.jar /usr/share/java/mysql-connector-java.jar
注意:jar包名称要修改为mysql-connector-java.jar
6)使用CM自带的脚本,在MySQL中创建CM库
[root@hadoop101 cm-5.12.]#
/opt/module/cm/cm-5.12./share/cmf/schema/scm_prepare_database.sh mysql cm -hhadoop101 -uroot -p123456 --scm-host hadoop101 scm scm scm
参数说明
-h:Database host
-u:Database username
-p:Database Password
--scm-host:SCM server's hostname
7)分发cm
[root@hadoop101 module]# xsync /opt/module/cm
8)创建Parcel-repo目录
Servre 节点创建目录/opt/cloudera/parcel-repo
[root@hadoop101 module]# mkdir -p /opt/cloudera/parcel-repo
[root@hadoop101 module]# chown cloudera-scm:cloudera-scm /opt/cloudera/parcel-repo
9)拷贝下载文件manifest.json 、CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha1 、CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel到hadoop102的/opt/cloudera/parcel-repo/目录下
[root@hadoop101 parcel-repo]# ls
CDH-5.12.-.cdh5.12.1.p0.-el6.parcel CDH-5.12.-.cdh5.12.1.p0.-el6.parcel.sha1
manifest.json
10)将CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha1:需改名为
CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha
[root@hadoop101 parcel-repo]# mv CDH-5.12.-.cdh5.12.1.p0.-el6.parcel.sha1 CDH-5.12.-.cdh5.12.1.p0.-el6.parcel.sha
11)在hadoop101上创建目录/opt/cloudera/parcels,并修改该目录的所属用户及用户组为cloudera-scm
[root@hadoop101 module]# mkdir -p /opt/cloudera/parcels
[root@hadoop101 module]# chown cloudera-scm:cloudera-scm /opt/cloudera/parcels
启动CM服务
1)启动服务节点:hadoop101
[root@hadoop101 cm]# /opt/module/cm/cm-5.12./etc/init.d/cloudera-scm-server start Starting cloudera-scm-server: [确定]
2)启动工作节点:hadoop101、hadoop102、hadoop103
[root@hadoop101 cm]# /opt/module/cm/cm-5.12./etc/init.d/cloudera-scm-agent start
[root@hadoop102 cm]# /opt/module/cm/cm-5.12./etc/init.d/cloudera-scm-agent start
[root@hadoop103 cm]# /opt/module/cm/cm-5.12./etc/init.d/cloudera-scm-agent start
注意:启动过程非常慢,Manager启动成功需要等待5分钟左右,过程中会在数据库中创建对应的表需要耗费一些时间。
3)查看被占用则表示安装成功了!!!
[root@hadoop101 cm]# netstat -anp | grep
tcp 0.0.0.0: 0.0.0.0:* LISTEN /java
4)访问http://hadoop101:7180,(用户名、密码:admin)
关闭CM服务
1)关闭工作节点:hadoop101、hadoop102、hadoop103
[root@hadoop101 cm]# /opt/module/cm/cm-5.12./etc/init.d/cloudera-scm-agent stop
Stopping cloudera-scm-agent: [确定] [root@hadoop102 cm]# /opt/module/cm/cm-5.12./etc/init.d/cloudera-scm-agent stop
Stopping cloudera-scm-agent: [确定] [root@hadoop103 cm]# /opt/module/cm/cm-5.12./etc/init.d/cloudera-scm-agent stop
Stopping cloudera-scm-agent: [确定]
2)关闭服务节点:hadoop101
[root@hadoop101 cm]# /opt/module/cm/cm-5.12./etc/init.d/cloudera-scm-server stop 停止 cloudera-scm-server: [确定]
按装CM
. 解压cloudera-manager-el6-cm5..1_x86_64.tar.gz
[root@hadoop104 module]# mkdir /opt/module/cloudera-manager
[root@hadoop104 module]# tar -zxvf /opt/software/cloudera-manager-el6-cm5..1_x86_64.tar.gz -C /opt/module/cloudera-manager/ . 创建用户cloudera-scm(所有节点,三个节点都创建)
[root@hadoop104 cloudera-manager]# useradd --system --home=/opt/module/cloudera-manager/cm-5.12./run/cloudera-scm-server --no-create-home --shell=/bin/false --comment "Cloudera SCM User" cloudera-scm
[root@hadoop104 cloudera-manager]# id cloudera-scm
uid=(cloudera-scm) gid=(cloudera-scm) 组=(cloudera-scm)
#####hadoop104、hadoop105、hadoop106都需要创建cloudera-scm用户,否则在Parcel分发状态下,没有创建用户的分发,激活不了;
. 配置CM Agent
修改文件/opt/module/cloudera-manager/cm-5.12./etc/cloudera-scm-agent/config.ini
[root@hadoop104 cloudera-scm-agent]# vim config.ini
[General]
# Hostname of the CM server.
server_host=hadoop104 . 配置CM的数据库;在主节点创建即可;
拷贝mysql jar文件到目录 /usr/share/java/
[root@hadoop104 share]# mkdir /usr/share/java/
[root@hadoop104 cm-5.12.]# cp /opt/software/mysql-libs/mysql-connector-java-5.1./mysql-connector-java-5.1.-bin.jar /usr/share/java/
[root@hadoop104 share]# mv /usr/share/java/mysql-connector-java-5.1.-bin.jar /usr/share/java/mysql-connector-java.jar
• 注意jar包名称要修改为mysql-connector-java.jar 在mysql中创建cm库
[root@hadoop104 cm-5.12.]# /opt/module/cloudera-manager/cm-5.12./share/cmf/schema/scm_prepare_database.sh mysql cm -hhadoop104 -uroot -p123456 --scm-host hadoop104 scm scm scm
5. 分发到其他机器中
xsync cloudera-manager/
创建Parcel-repo目录
创建Parcel-repo 目录
. Servre 节点创建目录/opt/cloudera/parcel-repo
[root@hadoop104 module]# mkdir -p /opt/cloudera/parcel-repo
[root@hadoop104 module]# chown cloudera-scm:cloudera-scm /opt/cloudera/parcel-repo
.拷贝下载文件到/opt/cloudera/parcel-repo
()CDH-5.12.-.cdh5.12.1.p0.-el6.parcel
()CDH-5.12.-.cdh5.12.1.p0.-el6.parcel.sha1:需改名为CDH-5.12.-.cdh5.12.1.p0.-el6.parcel.sha
()manifest.json
[root@hadoop104 cm-5.12.]# mv /opt/software/CDH-5.12.-.cdh5.12.1.p0.-el6.parcel.sha1 /opt/software/CDH-5.12.-.cdh5.12.1.p0.-el6.parcel.sha [root@hadoop104 module]# cp /opt/software/CDH-5.12.-.cdh5.12.1.p0.-el6.parcel.sha /opt/cloudera/parcel-repo/ [root@hadoop104 module]# cp /opt/software/CDH-5.12.-.cdh5.12.1.p0.-el6.parcel /opt/cloudera/parcel-repo/ [root@hadoop104 module]# cp /opt/software/manifest.json /opt/cloudera/parcel-repo/ .在Agent 节点(hadoop102,hadoop103,hadoop104)创建目录/opt/cloudera/parcels
[root@hadoop104 module]# mkdir -p /opt/cloudera/parcels
[root@hadoop104 module]# chown cloudera-scm:cloudera-scm /opt/cloudera/parcels [root@hadoop105 module]# mkdir -p /opt/cloudera/parcels
[root@hadoop105 module]# chown cloudera-scm:cloudera-scm /opt/cloudera/parcels [root@hadoop106 module]# mkdir -p /opt/cloudera/parcels
[root@hadoop106 module]# chown cloudera-scm:cloudera-scm /opt/cloudera/parcels . 分发Parcel-repo
[root@hadoop104 cloudera]# xsync /opt/cloudera/
启动和关闭CM Server&Agent 服务
服务节点:hadoop104
[root@hadoop104 init.d]# /opt/module/cloudera-manager/cm-5.12./etc/init.d/cloudera-scm-server start
Starting cloudera-scm-server: [确定]
工作节点:hadoop104\hadoop105\hadoop106
[root@hadoop104 init.d]# /opt/module/cloudera-manager/cm-5.12./etc/init.d/cloudera-scm-agent start
正在启动 cloudera-scm-agent: [确定] [root@hadoop105 module]# /opt/module/cloudera-manager/cm-5.12./etc/init.d/cloudera-scm-agent start
正在启动 cloudera-scm-agent: [确定] [root@hadoop106 module]# /opt/module/cloudera-manager/cm-5.12./etc/init.d/cloudera-scm-agent start
正在启动 cloudera-scm-agent: [确定]
注意:启动过程非常慢,Manager 启动成功需要等待一段时间,过程中会在数据库中创建对应的表需要耗费一些时间。
[root@hadoop102 init.d]# netstat -anp | grep
tcp 0.0.0.0: 0.0.0.0:* LISTEN /java
查看被占用则表示安装成功了!!!
访问http://hadoop104:7180,(用户名、密码:admin) 关闭:
服务节点:hadoop104
[root@hadoop104 init.d]# /opt/module/cloudera-manager/cm-5.12./etc/init.d/cloudera-scm-server stop
停止 cloudera-scm-server: [确定]
工作节点:hadoop104\hadoop105\hadoop106
[root@hadoop104 init.d]# /opt/module/cloudera-manager/cm-5.12./etc/init.d/cloudera-scm-agent stop
Stopping cloudera-scm-agent:
集群设置自定义安装
选择安装服务:
分配节点:
集群设置全部选默认即可,自动启动进程
[root@hadoop104 conf]# pwd //Hive的配置文件位置
/etc/hive/conf
HDFS重新安装的时候要把它的df文件夹给删掉
hive重新安装要把mysql里的hive库删掉;
修改权限问题两种方法:
第一种:
#第二种方式
[hdfs@hadoop104 init.d]$ su - hdfs ##su用户切换时 加 - 是会把环境也切换过来;建议用这种形式;
[hdfs@hadoop104 init.d]$ hadoop fs -chmod -R 777 /
[hdfs@hadoop104 init.d]$ exit ###不要直接su套用户,先exit结束掉
exit
[root@hadoop104 init.d]#
hive的启动
[root@hadoop104 ~]# hive ##启动hive时直接启动;
Java HotSpot(TM) -Bit [root@hadoop104 ~]# beeline ##直接启动beeline,不用启动hiveserver2,因为在CDH上hive已经给我们启动了
Java HotSpot(TM) -Bit Server VM warning: ignoring option MaxPermSize=512M; support was removed in 8.0
beeline> !connect jdbc:hive2://hadoop104:10000
scan complete in 13ms
Connecting to jdbc:hive2://hadoop104:10000
Enter username for jdbc:hive2://hadoop104:10000: hive ####用户是启动hiveserver2的用户,而不是root
Enter password for jdbc:hive2://hadoop104:10000:
Hive配置文件所在目录:
cloudera/parcels/CDH/lib/hive/conf