filebeat-kafka-logstash-elasticsearch日志收集[中文时区问题、自己创建type类index]

logstash配置文件如下:

点击(此处)折叠或打开

  1. input{
  2.     kafka{
  3.         bootstrap_servers => "xxxx:9092,xxxx:9092,dw72.xxxx.:9092,...."
  4.         group_id => "xxxx_service_server_logstash"
  5.         topics => ["xxxx_service_server_error", "xxxx_service_server_runtime"]
  6.         auto_offset_reset => latest
  7.             codec => "json"
  8.         consumer_threads => 10
  9.         auto_commit_interval_ms => 500
  10.     }
  11. }

  12. filter {
  13.         grok {
  14.                 #patterns_dir => ["./patterns"]
  15.                 match => {
  16.                         "message" => "%{TIMESTAMP_ISO8601:logdatetime}"
  17.                 }
  18.         }
  19.         date {
  20.                 match => [ "logdatetime", "yyyy-MM-dd HH:mm:ss"]
  21.                 target => "@timestamp"
  22. # timezone => "Asia/Shanghai"
  23.                 timezone => "+00:00"
  24.                 locale => "en"
  25.         }
  26. }

  27. output{
  28.         elasticsearch{
  29.             hosts => ["192.168.1.89:9200"]
  30.                 action => "index"
  31.             index => "%{[type]}-%{+YYYY.MM.dd}"
  32.             flush_size => 8000
  33.         }
  34. }
主要关注两个问题:
1.event的timestamp问题,中国区会显示比实际的时间早8个小时(一般不建议修改时间,国际标准,在kibana中做处理。),这里只有国内的服务器,显示为区域时间比较好看,所以我就改了。
2.es 的index根据filebeat中的document_type自动创建index。
上一篇:Android官方开发文档Training系列课程中文版:使用Fragment构建动态UI之与其它Fragment通信


下一篇:RabbitMQ 安装环境 踩过的坑