ELK - Fluentd 日志收集(官方文档 部署安装 配置文件 详解)

官网地址:

1

https://www.fluentd.org/

下载地址:

1

https://www.fluentd.org/download

Fluentd文档地址:

1

https://docs.fluentd.org/installation

Fluentd Bit文档地址:

1

https://docs.fluentbit.io/manual/

 

Fluentd 和 Fluent Bit:

        Fluentd 和 Fluent Bit 的区别在于Fluent Bit 适用于对资源需求非常敏感的情况下且没有依赖,更节省资源只要450KB的内存就可运行,缺点是插件少,只负责收集和转发。Fluentd 内存需求约为40M,拥有更丰富的插件,支持大吞吐量,多输入并路由到不同的输出。

ELK - Fluentd 日志收集(官方文档 部署安装 配置文件 详解)

 

可以查考部署的yaml文件:

fluentd-es-ds.yaml

1

https://github.com/kubernetes/kubernetes/blob/master/cluster/addons/fluentd-elasticsearch/fluentd-es-ds.yaml

fluent-bit-ds.yaml

1

https://github.com/fluent/fluent-bit-kubernetes-logging/blob/0.13-dev/output/kafka/fluent-bit-ds.yaml

安装前配置:

文件描述符:

1

2

3

4

5

6

cat >> /etc/security/limits <<EOF

root soft nofile 65536

root hard nofile 65536

* soft nofile 65536

* hard nofile 65536

EOF

查看:

1

ulimit -n

sysctl.conf

1

2

3

cat >> /etc/sysctl.conf <<EOF

vm.max_map_count=655360

EOF

查看:

1

sysctl -p

 

安装Fluentd:

导入gpg key:

1

rpm --import https://packages.treasuredata.com/GPG-KEY-td-agent

配置yum源:

1

2

3

4

5

6

7

cat /etc/yum.repos.d/td.repo <<EOF

[treasuredata]

name=TreasureData

baseurl=http://packages.treasuredata.com/3/redhat/\$releasever/\$basearch

gpgcheck=1

gpgkey=https://packages.treasuredata.com/GPG-KEY-td-agent

EOF

安装:

1

yum install -y td-agent

启动:

1

systemctl start td-agent.service

测试:

1

2

3

curl -X POST -d 'json={"json":"message"}' http://localhost:8888/debug.test

 

tail -f /var/log/td-agent/td-agent.log

配置:

source:定义输入,数据的来源,input方向。

match:定义输出,下一步的去向,如写入文件,或者发送到指定软件存储。output方向。

filter:定义过滤,也即事件处理流水线,一般在输入和输出之间运行,可减少字段,也可丰富信息。

system:系统级别的设置,如日志级别、进程名称。

label:定义一组操作,从而实现复用和内部路由。

@include:引入其他文件,和Java、python的import类似。

输出调试:

1

2

3

4

5

6

7

8

9

10

11

<source>

  @type tail

  path /var/log/nginx/access.log

  pos_file /var/log/td-agent/nginx-access.log.pos

  tag nginx.access

  format nginx

</source>

 

<match nginx.access>

  @type stdout

</match>

收集nginx日志配置:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

<source>

  @type tail

  path /var/log/nginx/access.log #...or where you placed your Apache access log

  pos_file /var/log/td-agent/nginx-access.log.pos # This is where you record file position

  tag nginx.access

  format nginx

</source>

<source>

  @type tail

  path /var/log/nginx/error.log

  pos_file /var/log/td-agent/nginx-error.log.pos

  tag nginx.error

  format /^(?<time>[^ ]+ [^ ]+) \[(?<log_level>.*)\] (?<pid>\d*).(?<tid>[^:]*): (?<message>.*)$/

</source>

  

<match nginx.*>

 @type elasticsearch

 logstash_format true

 host 172.31.18.133 # elasticsearch IP

 port 9200

 index_name fluentd-nginx

 type_name fluentd-nginx

</match>

 

检查配置文件:

1

td-agent --dry-run -c td-agent.conf

 

tag

 

tag的用作:Fluentd 内部路由引擎的方向。

tag的使用:<match tag>、<filter tag>,如:<match nginx.web>、<filter nginx.*>

语法:

*:匹配单个 tag 部分

        例:a.*,匹配 a.b,但不匹配 a 或者 a.b.c

 

**:匹配 0 或 多个 tag 部分

        例:a.**,匹配 a、a.b 和 a.b.c

 

{X,Y,Z}:匹配 X、Y 或 Z,其中 X、Y 和 Z 是匹配模式。可以和 * 和 ** 模式组合使用

        例 1:{a, b},匹配 a 和 b,但不匹配 c

        例 2:a.{b,c}. 和 a.{b,c.*}

 

多模式:当多个模式列在一个 <match> 标签(由一个或多个空格分隔)内时,它匹配任何列出的模式。 

        例如:

        <match a b>:匹配 a 和 b

        <match a.** b.*>:匹配 a、a.b、a.b.c 和 b.d

 

 

过滤插件

 

record_transformer:

        将收集来的信息通过增删改的方式来处理,也就是说这个插件可以将收集来的信息往里面增加字段、删除字段、修改字段。这个插件内核中自带不用安装。

增加字段:下面这段配置中向原有的字段中增加了hostname 和 tag 两个字段。

1

2

3

4

5

6

7

<filter foo.bar>

  @type record_transformer

  <record>

    hostname "#{Socket.gethostname}" # ruby的语法

    tag ${tag}

  </record>

</filter>

由:

1

{"message":"hello world!"}

变为:

1

{"message":"hello world!""hostname":"db001.internal.example.com""tag":"foo.bar"}

用法二:可在配置里面搞点计算,使用Ruby的语法。

1

2

3

4

5

6

7

<filter foo.bar>

  @type record_transformer

  enable_ruby

  <record>

    avg ${record["total"] / record["count"]}

  </record>

</filter>

由:

1

{"total":100, "count":10}

变为:

1

{"total":100, "count":10, "avg":"10"}

用法三:将tag中的第二部分值加入字段中。

1

2

3

4

5

6

<filter web.*> # *号匹配到的值

  @type record_transformer

  <record>

    service_name ${tag_parts[1]}  # 将*号匹配到的值放在这个字段中

  </record>

</filter>

由:

1

{"user_id":1, "status":"ok"}

变为:

1

{"user_id":1, "status":"ok""service_name":"auth"}

基本使用语法:

如果输入的记录为:{"total":100, "count":10}

我们可以在<record>标签里面使用 record["total"]=100,record["count"]=10 来取值。还有其他的值time、hostname等。

<record>

    field: ${record["total"] / record["count"]}

    tag: ${tag}

    hostname "#{Socket.gethostname}"

</record>

<record>里面的键值必须是新的字段。

标签tag的用法:

tag_parts[N]    标签的第N部分

tag_prefix[N]    从开始到N的部分

tag_suffix[N]    从N到结尾的部分

    例:标签为 debug.my.app

    tag_prefix[0] = debug

    tag_prefix[1] = debug.my

    tag_prefix[2] = debug.my.app

    tag_suffix[0] = debug.my.app

    tag_suffix[1] = my.app

    tag_suffix[2] = app

其他参数:record是在filter指令内的

1

2

3

4

5

6

7

8

<record>

    enable_ruby    false

    auto_typecast    false

    renew_record    false

    renew_time_key    nil

    keep_keys    nil

    remove_keys    nil

</record>

 

parser:

        解析器,解析日志,将日志格式化成json。

1

2

3

4

5

6

7

8

9

<filter foo.bar>

  @type parser

  key_name log

  <parse>

    @type regexp

    expression /^(?<host>[^ ]*) [^ ]* (?<user>[^ ]*) \[(?<time>[^\]]*)\] "(?<method>\S+)(?: +(?<path>[^ ]*) +\S*)?" (?<code>[^ ]*) (?<size>[^ ]*)$/

    time_format %d/%b/%Y:%H:%M:%S %z

  </parse>

</filter>

由:

1

2

3

4

time:

injested time (depends on your input)

record:

{"log":"192.168.0.1 - - [05/Feb/2018:12:00:00 +0900] \"GET / HTTP/1.1\" 200 777"}

解析为:

1

2

3

4

time

05/Feb/2018:12:00:00 +0900

record:

{"host":"192.168.0.1","user":"-","method":"GET","path":"/","code":"200","size":"777"}

在<filter>中的可用参数:详见 https://docs.fluentd.org/filter/parser

本文转自:Fluentd 日志收集 来源:原创 时间:2019-08-08 作者:脚本小站 分类:Linux

上一篇:「Kubernetes」- 使用 Fluentd 收集日志 @20210414


下一篇:K8S之EFK日志收集