如果是校友,选大数据分析的课,请不要直接复制,这是我的报告,老师还没有考核。
1. 下载并解压Hbase
版本:2.4.8。用sudo tar xfvz hbase-2.4.8-bin.tar.gz -C /usr/local
2. 配置JAVA_HOME
1) 在hbase-env.sh里面加入JAVA_HOME的路径。
2) 在检验时出现问题。说处理器数量希望从1增加,那就按它说的来,加了一个,不显示这一类的问题。
3) 但是还有另外一个问题。是说SLF4J绑定过多,并且列出来出现的地方。发现有我们之前hadoop-2.10.1里面有。先选择照它说的,查找网页http://www.slf4j.org/codes.html。给的建议是删除,并说对于这个警告最后绑定的可能是随机的,那情况可能不太好。还说了版本问题,估计是这个版本不够好-_-
最后查找教程是重命名,因为比较担心删除出现问题,选择把hadoop-2.10.1里的重命名,之后还可以改回来。
4) 之后验证配置,可以了。
Emm…因为只是一个警告,又改回去了,看看后面会出什么问题吧。
3. 配置hbase集群
配置hbase-site.xml,还是要注意不要直接写localhost以防出现问题。
4. 启动hbase服务
shart-hbase.sh
过程中同样出现格式和权限问题,处理方式和前面hadoop类似,不多赘述了
5. 访问hbase web端口
这里用了wget访问。安装wget:sudo yum install wget
Wget访问ip及端口的格式为:wget ip:port
一开始出现连接不成功的情况。可能是没有启动hadoop(庆幸还好把Hadoop文件改回来了)。
访问成功。
6. Hbase操作
1) 启动shell
2) 创建会员信息表member(member_id,address,info)
3) 查看表清单
4) 查看会员信息表结构
5) 添加新列族name
查看发现增加了‘name’
6) 删除一个列族member_id
此时查看已经没有member_id了。
7) 插入一条记录001:【address】beijing haidian,【info】zhangsan
8) 更新001:【address:city】beijing,【address:[district]】haidian,【info:name】zhangsan
9) 查看所有记录:前面已经做了。
10) 插入第二条记录002:【address:city】shanghai,【address:district】xuhui
11) 删除记录002的列【address:district】并验证
12) 删除记录002的列族【address】并验证
13) 删除记录002并验证
14) 为001增加一个增长列【info:age】(这里似乎有点问题)
15) 增加一次001的【info:age】列
16) 查看001列【info:age】的值:前面已经做过了。
17) 重新创建表:这里会有一个截断的效果,此时查看表会发现表是0行的。此外就是禁用删除并重新创建表。
18) 删除表:报错了,果然不是那么顺利。查看一下状态
禁用一下表:成功。