1.卡夫卡术语
基本上,Kafka架构 包含很少的关键术语,如主题,制作人,消费者, 经纪人等等。要详细了解Apache Kafka,我们必须首先理解这些关键术语。因此,在本文“Kafka术语”中,我们将学习所有这些Kafka术语,这将有助于我们建立Kafka知识的坚实基础。
那么,让我们从Apache Kafka术语开始。
Apache Kafka术语和概念
2.卡夫卡术语清单
在这篇Apache Kafka教程中,下面列出了最突出的Kafka术语,这些术语可以帮助我们建立Kafka知识的坚实基础。
一世。卡夫卡经纪人
Apache Kafka集群中有一个或多个服务器,基本上,这些服务器(每个)都是我们称之为代理的服务器。
II。卡夫卡话题
基本上,Kafka维护类别中的消息提要。并且,消息存储以及发布在我们称之为主题的类别/提要名称中。此外,所有Kafka消息通常都被组织成Kafka主题。
阅读Apache Kafka用例| 卡夫卡应用程序
III。卡夫卡分区
在Kafka的每个代理中,都有一些分区。Kafka中的这些Kafka分区既可以是主题的领导者,也可以是主题的副本。因此,在定义领导者时,它负责对主题的所有写入和读取,而如果领导者以某种方式失败,则副本将接管新的领导者。
IV。卡夫卡制片人
简单来说,向Kafka发布消息的过程就是我们所说的Producers。此外,它还发布有关其选择主题的数据。
v。卡夫卡消费者
订阅主题和流程以及阅读已发布消息的订阅源的流程就是我们所说的消费者。
六。卡夫卡的抵消
消费者在日志中的位置以及按消费者保留的位置就是我们所说的Offset。而且,我们可以说它是每个消费者保留的唯一元数据。
七。卡夫卡消费者集团
基本上,Kafka提供的消费者抽象概括了排队和发布订阅的传统消息模型,我们称之为消费者群体。但是,使用消费者群体名称,消费者可以标记自己。
让我们修改Apache Kafka Workflow | Kafka Pub-Sub Messaging
八。Kafka Log Anatomy
日志与查看分区的另一种方式完全不同。基本上,数据源将消息写入日志。此外,一个或多个消费者在他们想要的任何时间从日志中读取该数据。让我们用图表来理解它,这里消费者A和B正在读取一个数据源,该数据源写入日志并从日志中写入不同的偏移量。
卡夫卡的日志解剖
九。Kafka消息订购和客户致谢
在Kafka中,从某个分区传递的消息的顺序和分区接收的消息是相同的。
X。卡夫卡节点
在Apache Kafka集群中,节点是一台计算机。
十一。卡夫卡集群
为实现共同目的而共同行动的一组计算机就是我们所说的集群。在Kafka中,它具有相同的含义,即一组计算机,每个计算机都有一个Kafka经纪人实例。
探索卡夫卡的优势与劣势
十二。 卡夫卡复制品
这里,单词副本指的是备份。这意味着分区的副本是分区的“备份”。基本上,我们使用副本以防止数据丢失,他们从不读取或写入数据。
十三。卡夫卡消息
在一行中,Kafka中的消息是通过Apache Kafka从生产者传递给消费者的信息。
十四。卡夫卡领袖
负责给定分区的所有读写的节点就是我们所说的Kafka Leader。因此,每个分区都包含一个服务器,它充当领导者。
十五。卡夫卡的追随者
简单地说,遵循领导者指令的节点就是我们所说的追随者。追随者的基本用法是,如果任何领导者失败,这些追随者中的任何一个将自动成为新的领导者。但是,它作为普通消费者播放,它会提取消息并更新自己的数据存储。
让我们用命令学习Apache Kafka Operations
十六。卡夫卡数据日志
消息通过Kafka保存,特别是在相当长的时间内。这意味着消费者可以根据自己的方便阅读。由于Kafka被配置为将消息保持24小时,但消费者在某种程度上停留的时间超过24小时,在这种情况下,消费者将丢失消息。尽管如此,只有当部分消费者的停机时间仅为60分钟时,才能从上次已知的偏移中读取该消息。
十七。 Kafka Connector API
允许构建以及运行可重用消费者或生产者的API,将现有应用程序或数据系统连接到Kafka主题,我们使用Connector API。
所以,这完全是关于Apache Kafka术语。希望你喜欢我们的解释。
让我们修改Kafka Performance Tuning - Kafka Optimization的方法
3.结论
因此,这个Apache Kafka教程总结了大多数重要的Apache Kafka术语。此外,本文还介绍了这些术语如何在Apache Kafka计算中发挥重要作用。此外,帮助我们更深入地了解卡夫卡。因此,这个博客将帮助我们更有效地学习Apache Kafka的概念。此外,如果您在Kafka术语中有任何疑问,请随时通过评论部分询问。
另请参阅 - Apache Kafka + Spark Streaming Integration
供参考