Splunk集成Kafka配置方法

【摘要】Splunk是业界赫赫有名的数据分析工具,比较擅长BI和安全分析,我司很多部门都有购买其产品和服务。最近有个需求要把Splunk和分部署消息队列Kafka做个集成,Splunk官方提供的一个Kafka的插件,可以很容易的做到与开源Kafka集成,本文简单描述一下集成的配置方法。本文假设你的环境里已经搭建好了Splunk和Kafka(Splunk搭建请参考,Kafka搭建请参考)。

概述

Splunk Add-on for kafka支持三种输入

-          监控Kafka本身的日志,需要在Kafka的机器上部署Forward

-          用JMX输入来收集kafka集群的性能指标,这还需要额外安装一个Splunk Add-on for JMX来跟Kafka的JMX对接

-          与Kafka的topic对接直接消费数据,通常会把插件装在heavy forwarder上,通过他与Kafka对接

一个完整的部署架构和数据流向如下图所示,实际上前两种输入都是可选的,根据实际需求选择即可:

Splunk集成Kafka配置方法

安装Splunk Add-on for Kafka

1.     下载插件:https://splunkbase.splunk.com/app/2935/#/overview

2.     安装插件,在Splunk主界面上点“Apps”后面的图标

Splunk集成Kafka配置方法

在弹出界面上点“Install app from file”,在弹出界面上选择前一步下载的Splunk Add-on for kafka,然后点“upload”安装完后会提示重启。

# 配置Splunk集成Kafka

官方推荐把接收Kafka消息的集成点放在Heavy Forwarder上,但是直接在Splunk实例上配置订阅Kafka主题也是可以的。

1.     在Splunk Web上点Apps->Manage Apps

Splunk集成Kafka配置方法

2.     在弹出页面中找到Splunk Add-on for Kafka,点击“Set up”

3.     (可选)配置“Logging level”

4.     在下面的“Credential Settings”中点击“Add Kafka Cluster”,在弹出窗口中只需配置前两项即可,其他都可以留白

-          Kafka Cluster 定义kafka集群的名字

-          Kafka Brokers kafka实例的IP和端口,如果有多个实例,格式为 (<host:port>[,<host:port>][,...]).

5.     点“save”

6.     点击“Settings->Data inputs”

7.     找到“Splunk Add-on for kafka”那一行,点击“Add new”

8.     填写表格

-          Kafka data input name 给这个输入定个名字

-          Kafka cluster kafka集群的名字,见上面4、5两步

-          Kafka topic   收集数据的kafka 主题

-          Kafka partitions  (选填)

-          Kafka partition offset 指定是从头开始还是从尾开始

-          Topic group  (选填)订阅者的group标识

-          Index             (选填)

9.     点“Next”

通过上述步骤,Splunk就和kafka集成好了,通过producer往kafka发一些数据,然后在Splunk里搜索:

sourcetype=kafka:topicEvent

Splunk集成Kafka配置方法

参考:http://docs.splunk.com/Documentation/AddOns/released/Kafka/Configuremodularinputs#Manage_inputs_manually_from_each_forwarder

来源:华为云社区  作者:菊花茶

上一篇:Splunk 导出/导入app


下一篇:Photoshop将立体相框照片放入树叶中效果教程