Clickhouse集群性能测试(全网独家精华版)

背景

公司使用clickhouse作为其时序分析数据库,在上线前需要对Clickhouse集群做一个性能基准测试,用于数据评估。这里我搭建了三节点的集群,集群采用三分片单副本的模式(即数据分别存储在三个Clickhouse节点上,每个Clickhouse节点都有一个单独的副本,如下图:

Clickhouse集群性能测试(全网独家精华版)

具体的搭建方式参考:Clickhouse集群搭建

性能测试说明

性能关注指标

  • clickhouse-server写性能
  • clickhouse-server读性能
  • clickhouse-server的CPU和内存占用情况

测试环境说明

1)虚拟机列表

机器名

IP

配置

部署的服务

备注

server01

192.168.21.21

8c8g

clickhouserver(cs01-01)和

clickhouserver(cs01-02)

clickhouse01-01: 实例1, 端口: tcp 9000, http 8123, 同步端口9009, 类型: 分片1, 副本1

clickhouse01-02: 实例2, 端口: tcp 9001, http 8124, 同步端口9010, 类型: 分片2, 副本2 (clickhouse2的副本)

server02

192.168.21.69

8c8g

clickhouserver(cs02-01)和

clickhouserver(cs02-02)

clickhouse02-01: 实例1, 端口: tcp 9000, http 8123, 同步端口9009, 类型: 分片2, 副本1

clickhouse02-02: 实例2, 端口: tcp 9001, http 8124, 同步端口9010, 类型: 分片3, 副本2 (clickhouse3的副本)

server03

192.168.21.6

8c8g

clickhouserver(cs03-01)和

clickhouserver(cs03-02)

clickhouse03-01: 实例1, 端口: tcp 9000, http 8123, 同步端口9009, 类型: 分片3, 副本1

clickhouse03-02: 实例2, 端口: tcp 9001, http 8124, 同步端口9010, 类型: 分片1, 副本2 (clickhouse1的副本)

发压机器

192.168.21.3

16c2g

压测机器

用于测试clickhouse-server的性能

2)测试数据表说明

server02上的cs02-01中数据表使用如下sql创建写测试表:

create database test_ck;

#创建本地复制表用于写入(使用ReplicatedMergeTree复制表)
CREATE TABLE test_ck.device_thing_data (
                time                     UInt64,
                user_id                 String,
                device_id                 String,
                source_id                 String,
                thing_id                   String,
                identifier                String,
                value_int32                Int32,
                value_float                Float32,
                value_double            Float64,
                value_string            String,
                value_enum              Enum8('0'=0,'1'=1,'2'=2,'3'=3,'4'=4,'5'=5,'6'=6,'7'=7,'8'=8),
                value_string_ex         String,
                value_array_string         Array(String),
                value_array_int32         Array(Int32),
                value_array_float         Array(Float32),
                value_array_double         Array(Float64),
                action_date                Date,
                action_time             DateTime
            ) Engine= ReplicatedMergeTree('/clickhouse/tables/01-02/device_thing_data','cluster01-02-1') PARTITION BY toYYYYMM(action_date) ORDER BY (user_id,device_id,thing_id,identifier,time,intHash64(time)) SAMPLE BY intHash64(time) SETTINGS index_granularity=8192

创建分布式表用于查询,在三台每个机器上均执行如下sql:

CREATE TABLE device_thing_data_all AS test_ck.device_thing_data ENGINE = Distributed(cluster_3s_1r, test_ck, device_thing_data, rand()) 

测试数据说明

1)测试原始数据从开发联调环境的clickhouse导出,保存到本地的csv文件

2)写数据测试往192.168.21.69的9000端口(cs02-01)的test_ck.device_thing_data写入,使用的sql类似如下:

self.client.execute('INSERT INTO test_ck.device_thing_data (time,user_id,device_id,source_id,thing_id,identifier,value_int32,value_float,value_double,value_string,value_enum,value_string_ex,value_array_string,value_array_int32,value_array_float,value_array_double,action_date,action_time) VALUES', data,types_check=True)
3)读数据测试和写数据clickhouse-server实例一致,表使用device_thing_data_all,使用的sql类似如下:
 
self.client.execute('select count(1) from (select time,user_id,device_id,source_id,thing_id,identifier,value_int32,value_float,value_double,value_string,value_enum,value_string_ex,value_array_string,value_array_int32,value_array_float,value_array_double,action_date,action_time from device_thing_data_all limit %d) t1' % self.bulksize)

测试工具

测试工具使用python和shell编写,python使用clickhouse的客户端,shell使用parallel实现多进程

测试场景与性能数据

 1)写入测试,对集群的(cs02-01)的复制表的写入测试

每次批量数据条数

客户端连接数

耗时(秒)

插入总行数

TPS(records/sec)

clickhouse的CPU占用

clickhouse内存占用(m)

备注

10

1

12.319155

10000

811.744020

43%

1.8%(约160M)

/bin/bash start_clickhouse_perf.sh --mode=1 --clientnum=1 --bulksize=10 --times=1000

100

3

25.015171

300000

12026.095374

72%

1.8%(约160M)

/bin/bash start_clickhouse_perf.sh --mode=1 --clientnum=3 --bulksize=100 --times=1000

1000

3

61.579590

1500000

24496.428544

18.3%

1.9%(约160M)

/bin/bash start_clickhouse_perf.sh --mode=1 --clientnum=3 --bulksize=1000 --times=500

1000

6

64.323068

3000000

47051.112386

35.2%

1.9%(约160M)

/bin/bash start_clickhouse_perf.sh --mode=1 --clientnum=6 --bulksize=1000 --times=500

10000

6

222.632641

12000000

54542.892502

9.3%

2.4%(约160M)

/bin/bash start_clickhouse_perf.sh --mode=1 --clientnum=6 --bulksize=1000 --times=500

2)读取测试,对集群的(cs02-01)的分布式表的读取测试

每次批量数据条数

客户端连接数

耗时(秒)

插入总行数

TPS(records/sec)

clickhouse的CPU占用

clickhouse内存占用(m)

备注

1000

1

11.610356

1000000

86130.004332

69.4%

2.1%(约160M)

/bin/bash start_clickhouse_perf.sh --mode=0 --clientnum=1 --bulksize=1000 --times=1000

1000

3

12.897658

3000000

233129.085885

200.1%

2.1%(约160M)

/bin/bash start_clickhouse_perf.sh --mode=0 --clientnum=3 --bulksize=1000 --times=1000

10000

3

12.971161

30000000

2322824.513353

207%

2.1%(约160M)

/bin/bash start_clickhouse_perf.sh --mode=0 --clientnum=3 --bulksize=10000 --times=1000

10000

6

16.298867

60000000

3705072.680627

353.5%

2.1%(约160M)

/bin/bash start_clickhouse_perf.sh --mode=0 --clientnum=6 --bulksize=10000 --times=1000

100000

6

19.740923

600000000

30605253.774755

461%

2.2%(约160M)

/bin/bash start_clickhouse_perf.sh --mode=0 --clientnum=6 --bulksize=100000 --times=1000

3)写入数据量测试

写入1亿条记录到clickhouse单实例中,最后硬盘上的数据大小约为450M左右。

最后

可以看出,Clickhouse的单批次读写的记录越多,性能越好;尽量使用多线程进行读写,这样能够最大化利用Clickhouse的性能。

 

博主:测试生财(一个不为996而996的测开码农)

座右铭:专注测试开发与自动化运维,努力读书思考写作,为内卷的人生奠定财务*。

内容范畴:技术提升,职场杂谈,事业发展,阅读写作,投资理财,健康人生。

csdn:https://blog.csdn.net/ccgshigao

博客园:https://www.cnblogs.com/qa-freeroad/

51cto:https://blog.51cto.com/14900374

在码农的苦闷岁月里,期待我们一起成长,欢迎关注,感谢拍砖!

上一篇:Java 多线程练习,生产者和消费者


下一篇:系统调用SystemCalls-1-总述