Kafka学习----Kafka高级理论

Kafka高级理论

一 . Kafka 工作流程

Kafka学习----Kafka高级理论

  • Kafka 中消息是以 topic 进行分类的,生产者生产消息,消费者消费消息,都是面向 topic的。
  • topic 是逻辑上的概念,而 partition 是物理上的概念,每个 partition 对应于一个 log 文件,该 log 文件中存储的就是 producer 生产的数据。
  • Producer 生产的数据会被不断追加到该log 文件末端,且每条数据都有自己的 offset。
  • 消费者组中的每个消费者,都会实时记录自己消费到了哪个 offset,以便出错恢复时,从上次的位置继续消费。

二. Kafka文件存储机制

①. Kafka文件存储机制

Kafka学习----Kafka高级理论

  • 由于生产者生产的消息会不断追加到 log 文件末尾,为防止 log 文件过大导致数据定位效率低下,Kafka 采取了分片和索引机制,将每个 partition 分为多个 segment。
  • 每个 segment对应两个文件".index"文件和".log"文件。这些文件位于一个文件夹下,该文件夹的命名规则为:topic 名称+分区序号。
  • 例如,first 这个 topic 有三个分区,则其对应的文件夹为 first-0,first-1,first-2。

Kafka学习----Kafka高级理论
Kafka学习----Kafka高级理论

②. index文件和log文件详解

  • “.index"文件存储大量的索引信息,”.log"文件存储大量的数据,索引文件中的元数据指向对应数据文件中 message 的物理偏移地址。

Kafka学习----Kafka高级理论

三. Kafka 生产者

①. 分区策略

1. 分区的原因

  • 方便在集群中扩展,每个 Partition 可以通过调整以适应它所在的机器,而一个 topic又可以有多个 Partition 组成,因此整个集群就可以适应任意大小的数据了;
  • 可以提高并发,因为可以以 Partition 为单位读写了。

2. 分区的原则

  • 指明 partition 的情况下,直接将指明的值直接作为 partiton 值。

  • 没有指明 partition 值但有 key 的情况下,将 key 的 hash 值与 topic 的 partition 数进行取余得到 partition 值。Kafka学习----Kafka高级理论

    Kafka学习----Kafka高级理论

  • 既没有 partition 值又没有 key 值的情况下,第一次调用时随机生成一个整数(后面每次调用在这个整数上自增),将这个值与 topic 可用的partition总数取余得到 partition 值,也就是常说的 round-robin(轮询)算法。

Kafka学习----Kafka高级理论

②. 数据可靠性保证

  • 为保证 producer 发送的数据,能可靠的发送到指定的 topic,topic 的每个 partition 收到producer 发送的数据后,都需要向 producer 发送ack(acknowledgement 确认收到),如果producer 收到 ack,就会进行下一轮的发送,否则重新发送数据。

Kafka学习----Kafka高级理论

1. 副本数据同步策略

副本数据同步策略

Kafka学习----Kafka高级理论

Kafka 选择了第二种方案,原因如下:

  1. 同样为了容忍 n 台节点的故障,第一种方案需要 2n+1 个副本,而第二种方案只需要 n+1个副本,而 Kafka 的每个分区都有大量的数据,第一种方案会造成大量数据的冗余。
  2. 虽然第二种方案的网络延迟会比较高,但网络延迟对 Kafka 的影响较小。

2. ISR

Kafka学习----Kafka高级理论

  • 采用第二种方案之后,设想以下情景:leader 收到数据,所有 follower 都开始同步数据,但有一个 follower,因为某种故障,迟迟不能与 leader 进行同步,那 leader 就要一直等下去,直到它完成同步,才能发送 ack。这个问题怎么解决呢?
  • Leader 维护了一个动态的 in-sync replica set (ISR),意为和 leader 保持同步的 follower 集合。当 ISR 中的 follower 完成数据的同步之后,leader 就会给 follower 发送 ack。如果 follower长时间 未 向 leader 同 步 数 据 , 则 该 follower 将 被 踢 出 ISR , 该 时 间 阈 值 由replica.lag.time.max.ms 参数设定。Leader 发生故障之后,就会从 ISR 中选举新的 leader。

3. ack 应答机制

  • 0:producer 不等待 broker 的 ack,这一操作提供了一个最低的延迟,broker 一接收到还没有写入磁盘就已经返回,当 broker 故障时有可能丢失数据; -

  • 1:producer 等待 broker 的 ack,partition 的 leader 落盘成功后返回 ack,如果在 follower同步成功之前 leader 故障,那么将会丢失数据;

    acks = 1 数据丢失案例

Kafka学习----Kafka高级理论

  • -1(all):producer 等待 broker 的 ack,partition 的 leader 和 follower 全部落盘成功后才返回 ack。但是如果在 follower 同步完成后,broker 发送 ack 之前,leader 发生故障,那么会造成数据重复。

    acks = -1 数据重复案例

Kafka学习----Kafka高级理论

4. 故障处理细节

  • 这只能保证副本之间的数据一致性,并不能保证数据不丢失或者不重复。

Kafka学习----Kafka高级理论

  • LEO:指的是每个副本最大的 offset;
  • HW:指的是消费者能见到的最大的 offset,ISR 队列中最小的 LEO。

follower 故障

  • follower 发生故障后会被临时踢出 ISR,待该 follower 恢复后,follower 会读取本地磁盘记录的上次的 HW,并将 log 文件高于 HW 的部分截取掉,从 HW 开始向 leader 进行同步。等该 follower 的 LEO 大于等于该Partition 的 HW,即 follower 追上 leader 之后,就可以重新加入 ISR 了。

leader 故障

  • leader 发生故障之后,会从 ISR 中选出一个新的 leader,之后,为保证多个副本之间的数据一致性,其余的 follower 会先将各自的 log 文件高于 HW 的部分截掉,然后从新的 leader同步数据。

③. Exactly Once 语义

  • 将服务器的 ACK 级别设置为-1,可以保证 Producer 到 Server 之间不会丢失数据,即 At Least Once 语义。相对的,将服务器 ACK 级别设置为 0,可以保证生产者每条消息只会被发送一次,即 At Most Once 语义。
  • At Least Once 可以保证数据不丢失,但是不能保证数据不重复;相对的,At Most Once 可以保证数据不重复,但是不能保证数据不丢失。但是,对于一些非常重要的信息,比如说交易数据,下游数据消费者要求数据既不重复也不丢失,即 Exactly Once 语义。
  • 0.11 版本的 Kafka,引入了一项重大特性:幂等性。
  • 所谓的幂等性就是指 Producer 不论向 Server 发送多少次重复数据,Server 端都只会持久化一条。幂等性结合 At Least Once 语义,就构成了 Kafka 的 Exactly Once 语义。即:At Least Once + 幂等性 = Exactly Once
  • 要启用幂等性,只需要将 Producer 的参数中 enable.idompotence 设置为 true 即可。
  • Kafka的幂等性实现其实就是将原来下游需要做的去重放在了数据上游。开启幂等性的 Producer 在初始化的时候会被分配一个 PID,发往同一 Partition 的消息会附带 Sequence Number。而Broker 端会对<PID, Partition, SeqNumber>做缓存,当具有相同主键的消息提交时,Broker 只会持久化一条。
  • 但是 PID 重启就会变化,同时不同的 Partition 也具有不同主键,所以幂等性无法保证跨分区跨会话的 Exactly Once。

四. Kafka 消费者

①. 消费方式

  • consumer 采用 pull(拉)模式从 broker 中读取数据。
  • push(推)模式很难适应消费速率不同的消费者,因为消息发送速率是由 broker 决定的。它的目标是尽可能以最快速度传递消息,但是这样很容易造成 consumer 来不及处理消息,典型的表现就是拒绝服务以及网络拥塞。而 pull 模式则可以根据 consumer 的消费能力以适当的速率消费消息。
  • pull 模式不足之处是,如果 kafka 没有数据,消费者可能会陷入循环中,一直返回空数据。针对这一点,Kafka 的消费者在消费数据时会传入一个时长参timeout,如果当前没有数据可供消费,consumer 会等待一段时间之后再返回,这段时长即为 timeout。

②. 分区分配策略

  • 一个 consumer group 中有多个 consumer,一个 topic 有多个 partition,所以必然会涉及到 partition 的分配问题,即确定那个 partition 由哪个 consumer 来消费。
  • Kafka 有两种分配策略,一是 RoundRobin,一是 Range。

1. RoundRobin

Kafka学习----Kafka高级理论

2. Range

Kafka学习----Kafka高级理论

③. offset 的维护

  • 由于 consumer 在消费过程中可能会出现断电宕机等故障,consumer 恢复后,需要从故障前的位置的继续消费,所以 consumer 需要实时记录自己消费到了哪个 offset,以便故障恢复后继续消费。

Kafka学习----Kafka高级理论

  • Kafka 0.9 版本之前,consumer 默认将 offset 保存在 Zookeeper 中,从 0.9 版本开始,consumer 默认将 offset 保存在 Kafka 一个内置的 topic 中,该 topic 为__consumer_offsets。

1. 修改配置文件 consumer.properties

Kafka学习----Kafka高级理论

Kafka学习----Kafka高级理论

2. 读取 offset,启动消费者

bin/kafka-console-consumer.sh --topic  __consumer_offsets --zookeeper zookeeper1:2181 
--formatter "kafka.coordinator.group.GroupMetadataManager\$OffsetsMessageFormatter" 
--consumer.config  config/consumer.properties  --from-beginning

Kafka学习----Kafka高级理论
Kafka学习----Kafka高级理论

Kafka学习----Kafka高级理论

Kafka学习----Kafka高级理论
Kafka学习----Kafka高级理论

Kafka学习----Kafka高级理论
Kafka学习----Kafka高级理论

五. Kafka 高效读写数据

① . 顺序写磁盘

Kafka 的 producer 生产数据,要写入到 log 文件中,写的过程是一直追加到文件末端,为顺序写。官网有数据表明,同样的磁盘,顺序写能到 600M/s,而随机写只有 100K/s。这与磁盘的机械机构有关,顺序写之所以快,是因为其省去了大量磁头寻址的时间。

② . 零复制技术

Kafka学习----Kafka高级理论

六. Zookeeper 在 Kafka 中的作用

  • Kafka 集群中有一个 broker 会被选举为 Controller,负责管理集群 broker 的上下线,所有 topic 的分区副本分配和 leader 选举等工作。
  • Controller 的管理工作都是依赖于 Zookeeper 的。

Kafka学习----Kafka高级理论

七. Kafka 事务

  • Kafka 从 0.11 版本开始引入了事务支持。事务可以保证 Kafka 在 Exactly Once 语义的基础上,生产和消费可以跨分区和会话,要么全部成功,要么全部失败。

①. Producer 事务

  • 为了实现跨分区跨会话的事务,需要引入一个全局唯一的 Transaction ID,并将 Producer获得的PID 和Transaction ID 绑定。这样当Producer 重启后就可以通过正在进行的 TransactionID 获得原来的 PID。
  • 为了管理 Transaction,Kafka 引入了一个新的组件 Transaction Coordinator。Producer 就是通过和Transaction Coordinator 交互获得 Transaction ID 对应的任务状态。Transaction Coordinator 还负责将事务所有写入 Kafka 的一个内部 Topic,这样即使整个服务重启,由于事务状态得到保存,进行中的事务状态可以得到恢复,从而继续进行。

②. Consumer 事务

  • 上述事务机制主要是从 Producer 方面考虑,对于 Consumer 而言,事务的保证就会相对较弱,尤其时无法保证 Commit 的信息被精确消费。这是由于 Consumer 可以通过 offset 访问任意信息,而且不同的 Segment File 生命周期不同,同一事务的消息可能会出现重启后被删除的情况。
上一篇:25Django-实现文章详情页的留言和回复功能


下一篇:dubbo工作原理