Hbase的命令及API操作

下面记录一下Hbase的简单命令,以及相关的API操作,Hbase虽然也是一种数据库,但是基本命令和MySQL不一样。

基本概念

Hbase因为是列存储,因此出现了一些新的概念,分别是行键RowKey、列族Column Family、列Column、单元Cell和命名空间NameSpace。大部分概念可以通过excel表格来理解,以下是它们的示意图。

Hbase的命令及API操作

(1)行键

行键类似MySQL中的主键,但hbase中没有主键的概念,它默认按照字典序排列,这个是分布式存储的基础。建表的时候是不需要指定行键的,它是在插入数据的指定。

(2)列族和列

一个表中至少包含一个列族,如图它相当如一个大的类,将包含很多小类,小类就是列。列族下面可以有0到多个列,列在建表的时候无需指定,在添加数据时可以动态增删。从上面示意图可以看出,增删列时最后会形成一个稀疏的数据结构,它不同MySQL那么紧凑密集。

(3)单元

hbase是可以增删改查数据的,实际上它的数据是存储在hdfs上,理论上是不能修改的,为了能做到更新数据,hbase存储的数据将有一个时间戳来标识,不同时间戳的数据就存储在一个个的不同单元中,默认只显示最新时间戳的数据,给人一种可以修改数据的感觉。因此单元里就是保存不同时间戳的数据。

(4)命名空间

命名空间相当如MySQL中的database,在hbase中使用namespace,均是可以区分同名表名的,hbase中如果不指定namespace就默认是default的命名空间。

基本命令

基本命令包含DDL(增删表)和DML(增删改查表数据),下面记录一下。

DDL相关

(1)新建一个表,下面指定了命名空间的操作。

# 新建命名空间,默认是default
hbase(main):002:0> create_namespace "hbasedemo"
2020-01-11 11:43:35,074 WARN  [main] util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/home/software/hbase-0.98.17-hadoop2/lib/slf4j-log4j12-1.6.4.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/home/software/hadoop-2.7.1/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
0 row(s) in 2.0560 seconds
# 查看命名空间
hbase(main):003:0> list_namespace
NAMESPACE
default
hbase
hbasedemo
3 row(s) in 0.0620 seconds
# 新建表,至少需要指定表名、列族,basic和data就是列族,这是省略写法
hbase(main):004:0> create hbasedemo:star,basic,data
0 row(s) in 1.0880 seconds

=> Hbase::Table - hbasedemo:star
# 查看表是否建立,如果是默认就用list命令查看表
hbase(main):005:0> list_namespace_tables hbasedemo
TABLE
star
1 row(s) in 0.0640 seconds

(2)新建一个表,如果不指定命令空间,默认就是在default命名空间下,下面使用建表的完整写法。

# 完整写法
hbase(main):015:0> create star,{NAME=>basic},{NAME=>data}
0 row(s) in 0.4320 seconds

=> Hbase::Table - star
# 查看表结构
hbase(main):017:0> desc star
Table star is ENABLED
star
COLUMN FAMILIES DESCRIPTION
{NAME => basic, BLOOMFILTER => ROW, VERSIONS => 1, IN_MEMORY => false, KEEP_DELETED_CELLS => FALSE, D
ATA_BLOCK_ENCODING => NONE, TTL => FOREVER, COMPRESSION => NONE, MIN_VERSIONS => 0, BLOCKCACHE => true, BLOCKSIZE => 65536, REPLICATION_SCOPE => 0}
{NAME => data, BLOOMFILTER => ROW, VERSIONS => 1, IN_MEMORY => false, KEEP_DELETED_CELLS => FALSE, DA
TA_BLOCK_ENCODING => NONE, TTL => FOREVER, COMPRESSION => NONE, MIN_VERSIONS => 0, BLOCKCACHE => true
, BLOCKSIZE => 65536, REPLICATION_SCOPE => 0}
2 row(s) in 0.0650 seconds

(3)删除一个表,删除刚才命名空间下建立的表。

# 删除表,需要先disable让其不可用,反之使用enable使其可用
hbase(main):007:0> disable hbasedemo:star
0 row(s) in 1.3800 seconds
# 查看是否已经禁用
hbase(main):010:0> is_enabled hbasedemo:star
false
0 row(s) in 0.0370 seconds
# 删除表,指定了命名空间前面
hbase(main):011:0> drop hbasedemo:star
0 row(s) in 0.2540 seconds
# 查看是否删除
hbase(main):012:0> list_namespace_tables hbasedemo
TABLE
0 row(s) in 0.0130 seconds

(4)删除一个表,如果删除default命名空间下的表。

hbase(main):019:0> disable star
0 row(s) in 1.3080 seconds
# 删除表
hbase(main):020:0> drop star
0 row(s) in 0.2010 seconds
# exists命令查看表是否存在
hbase(main):021:0> exists star
Table star does not exist
0 row(s) in 0.0240 seconds

另外,删除了表后,就可以删除命名空间了,否则会提示命名空间下不为空。

hbase(main):006:0> drop_namespace hbasedemo

ERROR: org.apache.hadoop.hbase.constraint.ConstraintException: Only empty namespaces can be removed. Namespace hbasedemo has 1 tables

删除了表后,就可以删除命名空间。

# 删除命名空间
hbase(main):013:0> drop_namespace hbasedemo
0 row(s) in 0.0520 seconds
# 已删除
hbase(main):014:0> list_namespace
NAMESPACE
default
hbase

DML相关

以下DML相关操作,在默认命名空间下进行,如果需要指定命名空间,表名前加命名空间即可,即‘命名空间:表名‘来指定。

(1)插入数据 ,使用命令‘‘put 表名,行键,‘列族:列‘,数据‘‘的格式来添加。

# 插入两条数据
hbase(main):024:0> put star,s1,basic:name,messi
0 row(s) in 0.2160 seconds

hbase(main):025:0> put star,s1,data:score,51
0 row(s) in 0.0160 seconds

(2)查找数据,主要为get和scan命令,其中scan为全表扫描,get是指定列族和列的查询方式。

get命令

# 查询s1行键的所有数据
hbase(main):026:0> get star,s1
COLUMN                        CELL
 basic:name                   timestamp=1578716219238, value=messi
 data:score                   timestamp=1578716244483, value=51
2 row(s) in 0.4040 seconds
# 查询s1行键的指定列族的数据
hbase(main):027:0> get star,s1,{COLUMN=>basic}
COLUMN                        CELL
 basic:name                   timestamp=1578716219238, value=messi
1 row(s) in 0.0210 seconds
# 查询s1行键的指定列族的数据,简写方式
hbase(main):028:0> get star,s1,data
COLUMN                        CELL
 data:score                   timestamp=1578716244483, value=51
1 row(s) in 0.0100 seconds
# 查询s1行键的指定列族和列的数据
hbase(main):029:0> get star,s1,{COLUMN=>basic:name}
COLUMN                        CELL
 basic:name                   timestamp=1578716219238, value=messi
1 row(s) in 0.0090 seconds
# 查询s1行键的指定列族和列的数据,简写方式
hbase(main):028:0> get star,s1,data:score
COLUMN                        CELL
 data:score                   timestamp=1578716244483, value=51
1 row(s) in 0.0110 seconds

scan命令

# 先插入一条数据
hbase(main):034:0> put star,s1,data:assists,10
0 row(s) in 0.0650 seconds
# 全表查询
hbase(main):035:0> scan star
ROW                           COLUMN+CELL
 s1                           column=basic:name, timestamp=1578716219238, value=messi
 s1                           column=data:assists, timestamp=1578717093292, value=10
 s1                           column=data:score, timestamp=1578716244483, value=51
1 row(s) in 0.0230 seconds
# 指定列族
hbase(main):036:0> scan star,{COLUMNS=>[basic,data]}
ROW                           COLUMN+CELL
 s1                           column=basic:name, timestamp=1578716219238, value=messi
 s1                           column=data:assists, timestamp=1578717093292, value=10
 s1                           column=data:score, timestamp=1578716244483, value=51
1 row(s) in 0.0200 seconds
# 指定列
hbase(main):037:0> scan star,{COLUMNS=>[basic:name,data:score]}
ROW                           COLUMN+CELL
 s1                           column=basic:name, timestamp=1578716219238, value=messi
 s1                           column=data:score, timestamp=1578716244483, value=51
1 row(s) in 0.0180 seconds

(3)更新数据

更新数据,其实也是插入数据,只是默认只显示最新时间戳的数据。后续再补充可以显示历史版本数据的操作。

# 查看梅西当前进球数
hbase(main):038:0> get star,s1,data:score
COLUMN                        CELL
 data:score                   timestamp=1578716244483, value=51
1 row(s) in 0.0210 seconds
# 更新梅西进球数
hbase(main):039:0> put star,s1,data:score,60
0 row(s) in 0.0260 seconds
# 再次查看,显示更新后的数据
hbase(main):040:0> get star,s1,data:score
COLUMN                        CELL
 data:score                   timestamp=1578717295077, value=60
1 row(s) in 0.0110 seconds

(4)删除数据

# 先查看一下
hbase(main):041:0> scan star
ROW                           COLUMN+CELL
 s1                           column=basic:name, timestamp=1578716219238, value=messi
 s1                           column=data:assists, timestamp=1578717093292, value=10
 s1                           column=data:score, timestamp=1578717295077, value=60
1 row(s) in 0.0180 seconds
# 删除指定行键下的列
hbase(main):042:0> delete star,s1,data:assists
0 row(s) in 0.0390 seconds
# 已删除梅西的助攻数
hbase(main):043:0> scan star
ROW                           COLUMN+CELL
 s1                           column=basic:name, timestamp=1578716219238, value=messi
 s1                           column=data:score, timestamp=1578717295077, value=60
1 row(s) in 0.0100 seconds
# 删除整个行键数据
hbase(main):044:0> deleteall star,s1
0 row(s) in 0.0230 seconds
# 已删除
hbase(main):045:0> scan star
ROW                           COLUMN+CELL
0 row(s) in 0.0070 seconds

如果要能查看历史版本的数据,建表时需要指定能查看的历史版本数。

# 新建表,指定列族能提供的历史版本数
hbase(main):047:0> create star1,{NAME=>basic,VERSIONS=>3},{NAME=>data,VERSIONS=>2}
0 row(s) in 0.4300 seconds
# 插入数据
=> Hbase::Table - star1
hbase(main):048:0> put star1,s1,basic:name,ronald
0 row(s) in 0.1110 seconds

hbase(main):049:0> put star1,s1,basic:age,34
0 row(s) in 0.0380 seconds

hbase(main):050:0> put star1,s1,data:score,45
0 row(s) in 0.0190 seconds

hbase(main):051:0> put star1,s1,data:score,46
0 row(s) in 0.0080 seconds

hbase(main):052:0> put star1,s1,data:score,47
0 row(s) in 0.0250 seconds

hbase(main):053:0> put star1,s1,data:score,48
0 row(s) in 0.0150 seconds
# 默认只显示最新信息
hbase(main):054:0> scan star1
ROW                           COLUMN+CELL
 s1                           column=basic:age, timestamp=1578718726764, value=34
 s1                           column=basic:name, timestamp=1578718715616, value=ronald
 s1                           column=data:score, timestamp=1578718771868, value=48
1 row(s) in 0.0770 seconds
# 指定历史版本数量,然后指定了3条,但是建表只提供2条,因此就显示2条
hbase(main):055:0> scan star1,{COLUMNS=>data:score,VERSIONS=>3}
ROW                           COLUMN+CELL
 s1                           column=data:score, timestamp=1578718771868, value=48
 s1                           column=data:score, timestamp=1578718769656, value=47
1 row(s) in 0.0340 seconds
# 只有1条,虽然能提供3条,但是也只显示1条
hbase(main):056:0> scan star1,{COLUMNS=>basic,VERSIONS=>3}
ROW                           COLUMN+CELL
 s1                           column=basic:age, timestamp=1578718726764, value=34
 s1                           column=basic:name, timestamp=1578718715616, value=ronald
1 row(s) in 0.0180 seconds
# get命令也可以指定版本数
hbase(main):058:0> get star1,s1,{COLUMNS=>basic,VERSIONS=>3}
COLUMN                        CELL
 basic:age                    timestamp=1578718726764, value=34
 basic:name                   timestamp=1578718715616, value=ronald
2 row(s) in 0.0350 seconds
# 可以指定时间戳
hbase(main):059:0> get star1,s1,{COLUMNS=>data:score,TIMESTAMP=>1578718769656}
COLUMN                        CELL
 data:score                   timestamp=1578718769656, value=47
1 row(s) in 0.0090 seconds

基本API操作 

下面是相关API基本操作,覆盖上面基础的的DDL和DML操作,执行过程中使用了log4j来打印日志,log4j的配置文件需放在src目录下。

log4j内容

Hbase的命令及API操作
log4j.rootLogger = info,stdout

log4j.appender.stdout = org.apache.log4j.ConsoleAppender
log4j.appender.stdout.Target = System.out
log4j.appender.stdout.layout = org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern = [%-5p] %d{yyyy-MM-dd HH:mm:ss,SSS} method:%l%n%m%n
View Code

(1)新建表

Hbase的命令及API操作
package com.boe;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.HColumnDescriptor;
import org.apache.hadoop.hbase.HTableDescriptor;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.*;
import org.apache.hadoop.hbase.filter.CompareFilter;
import org.apache.hadoop.hbase.filter.Filter;
import org.apache.hadoop.hbase.filter.RegexStringComparator;
import org.apache.hadoop.hbase.filter.RowFilter;
import org.junit.Before;
import org.junit.Test;

import java.io.IOException;
import java.util.ArrayList;
import java.util.Iterator;
import java.util.List;

/**
 * HBase DDL和DML相关API操作
 */
public class HBaseDemo {

    Configuration conf=null;

    @Before
    public void before(){
       conf= HBaseConfiguration.create();
       //通过连接zookeeper,获取hbase的连接地址
       //可以多写几个zookeeper节点,一个节点可能会有宕机的可能,导致连接不上
       conf.set("hbase.zookeeper.quorum","hadoop01:2181,hadoop02:2181,hadoop03:2181");
    }

    //1 创建表
    @Test
    public void createTable() throws IOException {
        //连接HBase
        //Configuration conf=HBaseConfiguration.create();
        //通过连接zookeeper获取HBase的连接地址
        //conf.set("hbase.zookeeper.quorum","node01:2181,node02:2181,node03:2181");//担心一个节点挂掉不保险,可以全写上
        //连接HBase
        HBaseAdmin admin=new HBaseAdmin(conf);
        //创建表
        //准备HTableDescriptor
        HTableDescriptor table=new HTableDescriptor(TableName.valueOf("employer"));//指定表名
        //准备列族
        HColumnDescriptor basic=new HColumnDescriptor("basic");
        HColumnDescriptor other=new HColumnDescriptor("info");
        //表添加列族
        table.addFamily(basic);table.addFamily(other);
        //创建表
        admin.createTable(table);
        //关闭管理权
        admin.close();
    }

}
View Code

执行后新建表employer成功。

Hbase的命令及API操作

(2)添加数据

    //2 向表中添加数据
    @Test
    public void putData() throws IOException {
        HTable table=new HTable(conf,TableName.valueOf("employer"));
        //添加数据
        //将每一条数据封装为put对象
        Put put=new Put("e1".getBytes());//给定rowKey
        put.add("basic".getBytes(),"name".getBytes(),"clyang".getBytes());
        put.add("basic".getBytes(),"age".getBytes(),"28".getBytes());
        //添加数据
        table.put(put);
        //关流
        table.close();

    }

查看表中数据,插入成功。

Hbase的命令及API操作

可以测试插入100万条数据的时间,本次是在mac下完成,内存8G。 

    //2.1 添加100万条数据,计算时长,本机32秒插入完成
    //hbase shell查看结果发现,rowKey默认是按照字典序排列
    @Test
    public void testMillion() throws IOException {
        HTable table=new HTable(conf,TableName.valueOf("employer"));
        //添加100万条数据
        List<Put> list=new ArrayList<>();
        long start = System.currentTimeMillis();
        for (int i = 0; i <1000000 ; i++) {
            Put put=new Put(("e"+i).getBytes());//给定rowKey
            put.add("basic".getBytes(),"number".getBytes(),(i+"").getBytes());
            list.add(put);
            if(list.size()==1000){
                //添加数据
                table.put(list);
                //关流
                list.clear();
            }

        }
        long end = System.currentTimeMillis();
        System.err.println("运行时间为"+(end-start));
        //关流
        table.close();

    }

查看控制台,运行时间为32秒左右,插入100万条数据已经算快了,可能本机配置不行,好一点的机器估计只要几秒。

Hbase的命令及API操作

(3)删除数据

    //3 从表中删除数据
    @Test
    public void deleteData() throws IOException {
        HTable table=new HTable(conf,TableName.valueOf("employer"));
        Delete del=new Delete("e999999".getBytes());
        //删除整行
        table.delete(del);
        //关流
        table.close();
    }

删除成功。

Hbase的命令及API操作

(4)查询数据

查询数据get和scan也要对应的API。

    //4 查询数据
    //a 字段来查
    @Test
    public void getData() throws IOException {
        HTable table=new HTable(conf,TableName.valueOf("employer"));
        //获取数据
        Get get=new Get("e1".getBytes());
        Result result = table.get(get);
        //指定列族family和列名qualifier
        byte[] name = result.getValue("basic".getBytes(), "name".getBytes());
        byte[] age = result.getValue("basic".getBytes(), "age".getBytes());
        //打印
        System.err.println(new String(name)+":"+new String(age));
        //关流
        table.close();
    }

    //b 全表来查
    @Test
    public void scanData() throws IOException {
        HTable table=new HTable(conf,TableName.valueOf("employer"));
        //获取扫描器
        //Scan scan=new Scan();//全表扫描
        Scan scan=new Scan("e8848".getBytes(),"e8849".getBytes());//指定起始和结束rowKey,部分扫描

        ResultScanner scanner = table.getScanner(scan);
        //将扫描器转换为迭代器后才能遍历
        Iterator<Result> iterator = scanner.iterator();
        while(iterator.hasNext()){
            Result result = iterator.next();
            //从result中拿值
            byte[] value = result.getValue("basic".getBytes(), "number".getBytes());
            System.err.println(new String(value));
        }
        table.close();
    }

按字段查控制台

Hbase的命令及API操作

按全表查控制台,全表查还可以指定起始和结束行键,发现默认是按照字典序排列。

Hbase的命令及API操作

查询时,还可以根据行键来过滤,需要使用filter,API中提供了多种选择,这里使用行过滤器,过滤出含有8848行键的数据。

    //c 查询数据,使用filter过滤
    @Test
    public void filterData() throws IOException{
        HTable table=new HTable(conf,TableName.valueOf("employer"));
        //获取扫描器
        Scan scan=new Scan();
        //获取过滤器
        Filter filter=new RowFilter(CompareFilter.CompareOp.EQUAL,new RegexStringComparator(".*8848.*"));
        //设置过滤器
        scan.setFilter(filter);
        //扫描数据
        ResultScanner scanner = table.getScanner(scan);
        Iterator<Result> iterator = scanner.iterator();
        while(iterator.hasNext()){
            Result result = iterator.next();
            //打印result中的值
            System.err.println(new String(result.getValue("basic".getBytes(),"number".getBytes())));
        }
    }

查看控制台,过滤成功。

Hbase的命令及API操作

(5)删除表

    //5 删除表
    @Test
    public void dropTable() throws IOException {
        HBaseAdmin admin=new HBaseAdmin(conf);
        //禁用
        admin.disableTable("employer".getBytes());
        //删除表
        admin.deleteTable("employer".getBytes());
        //关流
        admin.close();
    }

查看删除成功。

Hbase的命令及API操作

以上就是对HBase基础命令和API的记录,后续补充HBase原理相关的内容。

 

参考博文:

(1)https://www.cnblogs.com/dato/p/7049343.html

Hbase的命令及API操作

上一篇:C# WPF联系人列表(1/3)


下一篇:ffmpeg中sws_scale和sws_getContext的api分析