event-export源码解析

背景:在kubernetes里event记录了集群运行所遇到的各种大事件,有助于排错,但大量的事件如果都存储在etcd中,会带来较大的性能与容量压力,所以etcd中默认只保存最近1小时的,如果我们将该时间改大 会大大增加集群etcd的压力,所以我们需要将该数据存储到其他地方。经过一段时间的寻找 觉的k8s-stackdriver这个项目比较符合目前我的需求,但是它存储到的是promethues,但是目前我司给与promethues的资源并不是很足,并且保存的时间默认只有15天本,地存储也意味着Prometheus无法持久化数据,无法存储大量历史数据,同时也无法灵活扩展。,所以考虑使用了ES作为存储。但是es存储方案目前官方并不支持,只有通过fluentd去收集日志达到效果,所以我这边通过修改源码将存储直接改为es,这样就不需要借助fluentd去收集日志了。

 

本文主要是先分析event-export源码,之后再讲修改过程写出来。

 

程序入口 main.go

sink, err := stackdriver.NewSdSinkFactory().CreateNew(strings.Split(*sinkOpts, " "))
if err != nil {
   glog.Fatalf("Failed to initialize sink: %v", err)
}

解释:初始化sink对象 并根据sink-opts传递进来的 参数设置对应的参数

参数列表(NewSdSinkFactory):

flagSet

flushDelay

maxBufferSize

maxConcurrency

resourceModelVersion

endpoint

解析sinkOpts的参数(CreateNew)

client, err := newKubernetesClient()
if err != nil {
   glog.Fatalf("Failed to initialize kubernetes client: %v", err)
}
eventExporter := newEventExporter(client, sink, *resyncPeriod)

newKubernetesClient 初始化go-client 接口

通过集群内部配置创建 k8s 配置信息,通过 KUBERNETES_SERVICE_HOST 和 KUBERNETES_SERVICE_PORT 环境变量方式获取

默认tokenfile rootCAFile 在/var/run/secrets/kubernetes.io/serviceaccount/

 

newEventExporter函数的作用 我们可以看他具体实现方法:

func newEventExporter(client kubernetes.Interface, sink sinks.Sink, resyncPeriod time.Duration) *eventExporter {
   return &eventExporter{
      sink:    sink,
      watcher: createWatcher(client, sink, resyncPeriod),
   }
}

func createWatcher(client kubernetes.Interface, sink sinks.Sink, resyncPeriod time.Duration) watchers.Watcher {
   return events.NewEventWatcher(client, &events.EventWatcherConfig{
      OnList:       sink.OnList,
      ResyncPeriod: resyncPeriod,
      Handler:      sink,
   })
}

newEventExporter 返回了eventExporter这个结构体 该结构体包含sink 和watcher两个字段。

sink: 包含所有的参数配置等

watcher: 通过createwatcher函数 监听events resource

分解:createWatcher函数

NewEventWatcher配置了需要watche的目标对象为event,以及间隔多久watch一次

events.EventWatcherConfig 结构体包含三个字段

OnList OnListFunc event列表

ResyncPeriod watcher的时间间隔 默认为1分钟watch一次 。 通过resyncPeriod参数设置

Handler 包含三个字段OnAdd OnUpdate OnDelete

OnAdd: 主要作用就是将watch到的数据通过通道存入sdSink下的logEntryChannel字段,并且在promethues插入数据

OnUpdate: 更新logEntryChannel字段,并更新promethues里的数据

 

go func() {
   http.Handle("/metrics", promhttp.Handler())
   glog.Fatalf("Prometheus monitoring failed: %v", http.ListenAndServe(*prometheusEndpoint, nil))
}()

stopCh := newSystemStopChannel()
eventExporter.Run(stopCh)

 首先 通过gorouteing执行了匿名函数 该匿名函数 主要设置了promethues的/metrics路由并且监听localhost的本地端口 默认为80 通过启动参数prometheusEndpoint设置

func newSystemStopChannel() chan struct{} {
   ch := make(chan struct{})
   go func() {
      c := make(chan os.Signal)
      signal.Notify(c, syscall.SIGINT, syscall.SIGTERM)
      sig := <-c
      glog.Infof("Received signal %s, terminating", sig.String())

      // Close stop channel to make sure every goroutine will receive stop signal.
      close(ch)
   }()

   return ch
}

newSystemStopChannel函数,通过gorouteing 执行匿名函数,当接收到SIGINT(2),SIGTERM(9)的时候 打印Received signal sig.String(), terminating的信号

 

eventExporter.Run(stopCh) 函数:

func (e *eventExporter) Run(stopCh <-chan struct{}) {
   utils.RunConcurrentlyUntil(stopCh, e.sink.Run, e.watcher.Run)
}

run函数:

stopCh: 接收newSystemStopChannel传递过来的信号值通道

utils.RunConcurrentlyUntil 方法

func RunConcurrentlyUntil(stopCh <-chan struct{}, funcs ...StoppableFunc) {
   var wg sync.WaitGroup
   for i := range funcs {
      wg.Add(1)
      f := funcs[i]
      go func() {
         defer wg.Done()
         f(stopCh)
      }()
   }

   <-stopCh

   wg.Wait()
}

并发运行e.sink.Run, e.watcher.Run

通过sync.WaitGroup解决同步阻塞等待的问题。

wg.Add 将计数器设置为1

执行e.sink.Run, e.watcher.Run两个函数

当执行完成的时候 将计数器设置减去1

在计数器不为0的时候Wait() 一直阻塞

只有当计数器为0的时候 或者接收到退出信号的时候才会退出。

 

e.sink.Run:

在eventExporter的sink字段 之后跳转到

interface.go下的Sink接口下的run方法

因为在newEventExporter函数里sink的值已经被赋值为sink, err := stackdriver.NewSdSinkFactory().CreateNew(strings.Split(*sinkOpts, " "))

返回的值 createNew

并且CreateNew 函数return newSdSink(writer, clk, config, resourceModelFactory), nil

通过查看newSdSink 该函数返回的是sdSink结构体

所以e.sink.Run 就相当于函数拥有者为sdSink下的Run方法

func (s *sdSink) Run(stopCh <-chan struct{}) {
   glog.Info("Starting Stackdriver sink")
   for {
      select {
      case entry := <-s.logEntryChannel:
         s.currentBuffer = append(s.currentBuffer, entry)
         if len(s.currentBuffer) >= s.config.MaxBufferSize {
            s.flushBuffer()
         } else if len(s.currentBuffer) == 1 {
            s.setTimer()
         }
         break
      case <-s.getTimerChannel():
         s.flushBuffer()
         break
      case <-stopCh:
         glog.Info("Stackdriver sink received stop signal, waiting for all requests to finish")
         for i := 0; i < s.config.MaxConcurrency; i++ {
            s.concurrencyChannel <- struct{}{}
         }
         glog.Info("All requests to Stackdriver finished, exiting Stackdriver sink")
         return
      }
   }
}

 run方法是一个for死循环 只有当收到newSystemStopChannel传递过来的信号时才会退出,通过s.logEntryChannel传递过来的日志,将该日志存储到s.currentBuffer里 当存储里的个数大于s.config.MaxBufferSize的值时 执行flushBuffer函数

 

func (s *sdSink) flushBuffer() {
   entries := s.currentBuffer
   s.currentBuffer = nil
   s.concurrencyChannel <- struct{}{}
   go s.sendEntries(entries)
}

func (s *sdSink) sendEntries(entries []*sd.LogEntry) {
   glog.V(4).Infof("Sending %d entries to Stackdriver", len(entries))

   written := s.writer.Write(entries, s.logName, s.sdResourceFactory.defaultMonitoredResource())
   successfullySentEntryCount.Add(float64(written))

   <-s.concurrencyChannel

   glog.V(4).Infof("Successfully sent %d entries to Stackdriver", len(entries))
}

flushBuffer首先会清空s.concurrencyChannel里的值

之后将entries的值传递给sendEntries

sendEntries函数下通过successfullySentEntryCount将日志写入promethues

之后接收s.concurrencyChannel传递过来的值,这里主要解决接收到SIGINT,SIGTERM的时候等待所有请求完成之后再停止

 

当s.currentBuffer等于1时 充值计时器,默认为5s,如果5s内没有数据代表超时 直接执行flushBuffer函数

 

e.watcher.Run:

func (w *watcher) Run(stopCh <-chan struct{}) {
   w.reflector.Run()
   <-stopCh
}

w.reflector.Run()会跳转到所属者为reflector下的Run函数

func (r *Reflector) Run() {
   glog.V(3).Infof("Starting reflector %v (%s) from %s", r.expectedType, r.resyncPeriod, r.name)
   go wait.Until(func() {
      if err := r.ListAndWatch(wait.NeverStop); err != nil {
         utilruntime.HandleError(err)
      }
   }, r.period, wait.NeverStop)
}

 声明一个匿名函数 每隔一段时间执行这个匿名函数

该函数下的主要方法就是ListAndWatch 也就是由它收集event的日志

 

 

 

 

上一篇:Flink 从 0 到 1 学习之(11)Flink 写入数据到 Kafka


下一篇:Flink系列:flink1.11 sink写入es7.10