文章转载自:https://www.kuboard.cn/learning/k8s-advanced/logs/cluster.html
Kubernetes 中并不默认提供集群级别的日志,不过,有许多种途径可以和集群级别的日志整合。例如
- 在每个节点上配置日志代理
- 在应用程序的 Pod 中包含一个专门用于收集日志的 sidecar 容器
- 从应用程序中直接推送日志到日志存储端
在节点上配置日志代理
如上图所示,通过在每个节点上配置一个节点级别的 logging-agent,您就可以实现集群级别的日志(cluster-level logging)。该 logging-agent 专门用来将节点上的日志文件中的日志推送到日志的后端存储。在 节点日志的存储 中,我们已经了解到,所有应用程序的标准输出都被使用 docker 的 logging driver (opens new window) 存储到了节点的 /var/log/containers
目录下(K8S 的默认配置)。因此,节点级别的 logging-agent 应该能够将该目录下的日志文件发送到日志后端。系统组件的日志 可以考虑一下是否要推送到日志后端。
logging-agent 必须运行在每一个节点上,可以选择的实现方式有:
对于 Kubernetes 集群来说,使用节点级别的 logging-agent 实现集群级别的日志(cluster-level logging)是使用最广泛也最为推荐的一种做法,因为这种做法只为每个节点创建了一个 logging-agent,且无需对节点上的容器化应用程序做任何修改。当然,只有当应用程序使用 stdout 和 stderr 记录日志时,节点级别的 logging-agent 才能生效。
Kubernetes 默认安装并不指定 logging-agent,但是Kubernetes默认打包了两种 logging-agent 以供选择:
- Stackdriver Logging 配合 Google Cloud Platform
- Elasticsearch
这两个选项都使用自定义配置了的 fluentd 作为节点上的 logging-agent。
在 sidecar 容器中配置 logging-agent
您可以按照如下方式使用 sidecar 容器,以收集日志:
- sidecar 容器跟踪应用程序的日志文件,并输出到 sidecar 容器自己的 stdout
- sidecar 容器运行一个 logging-agent,追踪应用程序的日志文件,并发送到日志后端
sidecar输出到stdout
使用 sidecar 容器将应用程序的日志输出到 sidecar 容器自己的 stdout 和 stderr 之后,您可以直接利用已经在集群上运行的 kubelet 以及节点级别的 logging-agent 进一步将日志发送到日志后端。此时 sidecar 容器可以从日志文件读取、socket读取或者 journald 读取日志内容,其输出则是 sidecar 容器自己的 stdout 和 stderr。
使用这种方法:
- 只需要对那些不能将日志输出到 stdout 和 stderr 的应用程序进行特殊配置即可,那些已经可以将日志输出到 stdout 和 stderr 的应用程序,则可以直接利用节点级别的 logging-agent。
- 由于重定向日志的逻辑非常简单,这种做法所带来的系统开销也是非常小的。
- 此外,stdout 和 stderr 由 kubelet 处理,您还可以直接使用支持 apiserver 的 kubernetes 管理工具来查看日志,例如 kubectl logs、Kubernetes Dashboard 或 Kuboard 的日志查看界面。
以下面的例子为例,该 Pod 中的容器将日志记录到两个日志文件中,且两个日志文件的日志格式不一样。YAML 文件如下所示:
apiVersion: v1
kind: Pod
metadata:
name: counter
spec:
containers:
- name: count
image: busybox
args:
- /bin/sh
- -c
- >
i=0;
while true;
do
echo "$i: $(date)" >> /var/log/1.log;
echo "$(date) INFO $i" >> /var/log/2.log;
i=$((i+1));
sleep 1;
done
volumeMounts:
- name: varlog
mountPath: /var/log
volumes:
- name: varlog
emptyDir: {}
如果将两个日志文件中完全不同的日志格式都通过一个 sidecar 容器重定向到其 stdout 中,最终的结果将非常混乱,你很难正确地对日志内容进行合适的处理。此时,可以考虑用两个 sidecar 容器,每个 sidecar 容器都追踪其中一个日志文件,并将日志重定向到各自的 stdout 中。
apiVersion: v1
kind: Pod
metadata:
name: counter
spec:
containers:
- name: count
image: busybox
args:
- /bin/sh
- -c
- >
i=0;
while true;
do
echo "$i: $(date)" >> /var/log/1.log;
echo "$(date) INFO $i" >> /var/log/2.log;
i=$((i+1));
sleep 1;
done
volumeMounts:
- name: varlog
mountPath: /var/log
- name: count-log-1
image: busybox
args: [/bin/sh, -c, 'tail -n+1 -f /var/log/1.log']
volumeMounts:
- name: varlog
mountPath: /var/log
- name: count-log-2
image: busybox
args: [/bin/sh, -c, 'tail -n+1 -f /var/log/2.log']
volumeMounts:
- name: varlog
mountPath: /var/log
volumes:
- name: varlog
emptyDir: {}
执行如下命令以运行该 Pod:kubectl apply -f https://kuboard.cn/statics/learning/logs/counter-sidecar-pod.yaml
此时,您可以通过不同的两个容器的 stdout 查看到想要追踪的日志文件:
查看第一个日志内容
#执行命令
kubectl logs conter count-log-1
# 输出结果如下
0: Mon Jan 1 00:00:00 UTC 2001
1: Mon Jan 1 00:00:01 UTC 2001
2: Mon Jan 1 00:00:02 UTC 2001
...
查看第二个日志内容
# 执行命令
kubectl logs counter count-log-2
# 输出结果如下
Mon Jan 1 00:00:00 UTC 2001 INFO 0
Mon Jan 1 00:00:01 UTC 2001 INFO 1
Mon Jan 1 00:00:02 UTC 2001 INFO 2
...
此时,在无需额外配置的情况下,节点级别的 logging-agent 将自动把这些容器标准输出中的内容发送到您的日志后端。如果有必要,您也可以按照容器的不同使用不同的日志解析方法配置节点级别的 logging-agent。
尽管 logging-agent sidecar 容器只消耗很少的 CPU 和内存(大概千分之几个 CPU 内核和几兆内存的样子),将日志写入文件,然后重定向到 stdout,此时再被容器引擎写入到 /var/log/containers 目录,这种做法仍然会消耗双倍的磁盘空间。如果您的应用程序将日志写入一个单一的文件中,更好的做法是使用 /dev/stdout 作为写入日志的目标,而不是使用 sidecar 容器重定向日志的方法
如果应用程序不能自行轮转日志文件,Sidecar 容器也可以用来轮转日志文件。例如,在一个 sidecar 容器中周期性的运行 logrotate 程序。不过,更好的办法是,直接将日志输出到 stdout 和 stderr,把日志轮转和日志保存的策略配置,交给 kubelet。
sidecar容器中执行 logging-agent
如果节点级别的 logging-agent 不满足您的需要,您还可以考虑创建一个 sidecar 容器,并直接在该容器中运行一个为您的应用程序特别定制的 logging-agent。
在 sidecar 容器中使用 logging-agent 可能消耗比较多的资源。此外,您也不能够使用 kubectl logs命令或者 Kuboard 的命令行终端查看这些日志,因为这个已经不受 kubelet 控制了。
下面的例子中,使用了 Stackdriver,并配合 fluentd 作为 logging-agent。本例子提供了两个配置文件:
第一个文件中包含了用于配置 fluentd 的内容
apiVersion: v1
kind: ConfigMap
metadata:
name: fluentd-config
data:
fluentd.conf: |
<source>
type tail
format none
path /var/log/1.log
pos_file /var/log/1.log.pos
tag count.format1
</source>
<source>
type tail
format none
path /var/log/2.log
pos_file /var/log/2.log.pos
tag count.format2
</source>
<match **>
type google_cloud
</match>
第二个文件是一个使用 fluentd 作为 sidecar 容器的 Pod。该 Pod 挂载了上面的 ConfigMap 作为一个数据卷,fluentd 从该数据卷读取配置:
apiVersion: v1
kind: Pod
metadata:
name: counter
spec:
containers:
- name: count
image: busybox
args:
- /bin/sh
- -c
- >
i=0;
while true;
do
echo "$i: $(date)" >> /var/log/1.log;
echo "$(date) INFO $i" >> /var/log/2.log;
i=$((i+1));
sleep 1;
done
volumeMounts:
- name: varlog
mountPath: /var/log
- name: count-agent
image: k8s.gcr.io/fluentd-gcp:1.30
env:
- name: FLUENTD_ARGS
value: -c /etc/fluentd-config/fluentd.conf
volumeMounts:
- name: varlog
mountPath: /var/log
- name: config-volume
mountPath: /etc/fluentd-config
volumes:
- name: varlog
emptyDir: {}
- name: config-volume
configMap:
name: fluentd-config
这个例子中使用了 Stackdriver 和 fluentd-gcp 容器,都依赖于 Google Computing Platform。实际在您的使用过程中,应该替换成您所需要的 logging-agent。
直接从应用程序容器发送日志到后端
要实现集群级别的日志,您也可以直接在每一个应用程序中将日志发送到日志后端,这种做法是 kubernetes 范围之外的,按照您通常的日志处理办法去做就可以了。