Flume概述

官网:http://flume.apache.org/

百科:https://baike.baidu.com/item/flume/6250098?fr=aladdin

Flume是Cloudera提供的一个高可用的,高可靠的,分布式的**海量日志采集、聚合和传输的系统。**Flume 基于流式架构,灵活简单。Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。

Flume概述

flume架构组件

Flume概述

Agent

Agent 是一个 JVM 进程,它以事件的形式将数据从源头送至目的。Agent 主要有 3 个部分组成,Source、Channel、Sink。

Source

  1. Source 是负责接收数据到 Flume Agent 的组件。
  2. Source 组件可以处理各种类型、各种格式的日志数据。
  3. ·包括 avro、thrift、exec、jms、spooling directory、netcat、sequence、generator、syslog、http、legacy。

Sink

  1. Sink 不断地轮询 Channel 中的事件且批量地移除它们,并将这些事件批量写入到存储或索引系统、或者被发送到另一个 Flume Agent。
  2. Sink 组件目的地包括 hdfs、logger、avro、thrift、ipc、fileHBasesolr、自定义。

Channel

  1. Channel 是位于 Source 和 Sink 之间的缓冲区。因此,Channel 允许 Source 和 Sink 运作在不同的速率上。Channel 是线程安全的,可以同时处理几个 Source 的写入操作和几个Sink 的读取操作。
  2. Flume 自带两种 Channel:Memory Channel 和 File Channel 以及 Kafka Channel。
    • Memory Channel 是内存中的队列。Memory Channel 在不需要关心数据丢失的情景下适用。如果需要关心数据丢失,那么 Memory Channel 就不应该使用,因为程序死亡、机器宕机或者重启都会导致数据丢失。
    • File Channel 将所有事件写到磁盘。因此在程序关闭或机器宕机的情况下不会丢失数据。

Event

传输单元,Flume 数据传输的基本单元,以 Event 的形式将数据从源头送至目的地。Event 由 r Header 和 y Body 两部分组成,Header 用来存放该 event 的一些属性,为 K-V 结构,Body 用来存放该条数据,形式为字节数组。
Flume概述

flume安装部署

  1. 文档查看地址
  2. 下载地址
#将 apache-flume-1.7.0-bin.tar.gz 上传到 linux 的/opt/software 目录下
tar -zxvf apache-flume-1.7.0-bin.tar.gz -C /opt/module/

#修改 apache-flume-1.7.0-bin 的名称为 flume
mv apache-flume-1.7.0-bin flume
#将 flume/conf 下的 flume-env.sh.template 文件修改为 flume-env.sh,并配置 flume-env.sh 文件
mv flume-env.sh.template flume-env.sh
vi flume-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_212
上一篇:网易三面:Stream是如何提高 “遍历集合” 效率的?


下一篇:flink elasticsearch sink table 忽略部分字段开发