kafka安装与使用

一、下载

下载地址: http://kafka.apache.org/downloads.html

kafka目录结构

kafka安装与使用

目录

说明

bin 操作kafka的可执行脚本,还包含windows下脚本
config 配置文件所在目录
libs 依赖库目录
logs 日志数据目录,目录kafka把server端日志分为5种类型,
分为:server,request,state,log-cleaner,controller

二、安装及启动

1. 解压

  > tar -xzf kafka_2.9.1-0.8.2.2.tgz
> cd kafkakafka_2.9.1-0.8.2.2
2. 配置

kafka最为重要三个配置依次为:broker.id、log.dir、zookeeper.connect

kafka server端config/server.properties参数说明参照: kafka主要配置

根据属性说明完成配置:

broker.id = 1

port = 9092

host.name=h1(h1为本人配置的hostname)

log.dirs=/root/software/kafka/log

zookeeper.connect=h1:2181

配置zookeeper(假设您已经安装了zookeeper,如果没有安装,参照 zookeeper集群环境安装配置)

3.启动服务

在启动kafka时需要先启动zookeeper服务

kafka启动命令:

> bin/kafka-server-start.sh config/server.properties

通过jps命令可以查看zookeeper和kafka是否启动成功,如下图:

kafka安装与使用

4.创建topic (此处创建是名称为‘my-topic’的topic,它只有一个分区,一个副本)

> bin/kafka-topics.sh  --create --zookeeper h1:2181  --replication-factor 1 --partitions 1 --topic my-topic

5.查看topic列表

> bin/kafka-topics.sh --list --zookeeper h1:2181

6.发送消息

Kafka 使用一个简单的命令行producer,从文件中或者从标准输入中读取消息并发送到服务端。默认的每条命令将发送一条消息。
  
运行producer并在控制台中输一些消息,这些消息将被发送到服务端:

> bin/kafka-console-producer.sh --broker-list
h1:9092 --topic my-topic

this is one message

this is another message

如图:

kafka安装与使用

7.启动consumer

Kafka也有一个命令行consumer可以读取消息并输出到标准输出:

> bin/kafka-console-consumer.sh --zookeeper
h1:2181 --topic my-topic --from-beginning

this is one message

this is another message

如图:

kafka安装与使用

三、搭建一个多个broker的集群

刚才只是启动了单个broker,现在启动有3个broker组成的集群,这些broker节点也都是在本机上的:
1. 首先为每个节点编写配置文件:

    > cp config/server.properties config/server1.properties
> cp config/server.properties config/server2.properties

  编辑新文件并设置如下配置
    config/server1.properties:
broker.id=1
port=9093
log.dirs=log.dirs=/root/software/kafka/log1
config/server2.properties:
broker.id=2
port=9094
log.dirs=/root/software/kafka/log2
    broker.id在集群中唯一的标注一个节点,因为在同一个机器上,所以必须制定不同的端口和日志文件,避免数据被覆盖。
2. 之前我们已经启动zookeeper和一个节点,现在只需要启动这两个新节点
    > bin/kafka-server-start.sh config/server-1.properties &
> bin/kafka-server-start.sh config/server-2.properties &

3. 创建一个拥有三个副本的topic: replicated-topic
     > bin/kafka-topics.sh  --create --zookeeper h1:2181  --replication-factor 3 --partitions 1 --topic replicated-topic
   我们可以通过运行"describe topics"命令来查看每个节点信息
     > bin/kafka-topics.sh --describe --zookeeper h1:2181 --topic replicated-topic
       Topic:replicated-topic    PartitionCount:1    ReplicationFactor:3    Configs:
    Topic: replicated-topic    Partition: 0    Leader: 0    Replicas: 0,1,2    Isr: 0,1,2

kafka安装与使用


下面解释一下这些输出。第一行是对所有分区的一个描述,然后每个分区都会对应一行,因为我们只有一个分区所以下面就只加了一行。
    
leader:负责处理消息的读和写,leader是从所有节点中随机选择的.
     replicas:列出了所有的副本节点,不管节点是否在服务中.

     isr:是正在服务中的节点.
     在我们的例子中,节点0是作为leader运行。

我们可以对比一下看一下之前创建的my-topic

kafka安装与使用

4.  发送接收消息如上步骤6、7,不再重复写出

5.  现在测试一下多broker集群的容错能力,通过"describe topics"命令知道
replicated-topic的leader为broker0,现在我们kill掉它

> ps -ef | grep server.properties

> kill –9 20549

另外一个节点被选做了leader,node 0不再出现在 in-sync
副本列表中:

kafka安装与使用

通过测试验证虽然最初负责续写消息的leader
down掉了,但之前的消息还是可以消费的:

上一篇:Ribbon负载均衡策略与自定义配置


下一篇:promise之我见