【Flume】Flume入门解析(一)

在这里插入图片描述在这里插入图片描述在这里插入图片描述

(图片来源于网络,侵删)


一、Flume概述

【1】Flume简介

  • 1)Flume是一个分布式可靠、和高可用的海量日志采集聚合传输的系统
  • 2)Flume可以采集文件,例如:socket数据包、文件、文件夹、kafka等各种形式源数据,又可以将采集到的数据(下沉sink)输出到HDFS、HBase、hive、Kafka等众多外部存储系统中
  • 3)一般的采集需求,通过对Flume的简单配置即可实现
  • 4) Flume针对特殊场景也具备良好的自定义扩展能力,因此,Flume可以适用于大部分的日常数据采集场景

【2】运行机制

  • 1)Flume分布式系统中最核心的角色是agent,agent本身是一个Java进程,一般运行在日志收集节点,Flume采集系统就是由一个个agent所连接起来形成
  • 2)每一个agent相当于一个数据传递员,内部有三个组件:
    • a) Source:采集组件,用于跟数据源对接,以获取数据
    • b) Channel:传输通道组件,用于从source将数据传递到sink
    • c) Sink:下沉组件,用于往下一级agent传递数据或者往最终存储系统传递数据

在整个数据的传输的过程中,流动的是event,它是Flume内部数据传输最基本单元event传输的数据进行封装。如果是文本文件,通常是一行记录,event也是事务的基本单位eventsource,流向channel,再到sink,本身为一个字节数组,并可携带headers(头信息)信息。event代表着一个数据的最小完整单元,从外部数据源来,向外部的目的地去
一个完整的event包括:event headersevent bodyevent信息,其中event信息就是flume收集到的日记记录。

  • 3)Source 到 Channel 到 Sink之间传递数据的形式是Event事件;Event事件是一个数据流单元
    在这里插入图片描述
单个agent采集数据👇

在这里插入图片描述

多级agent之间串联👇

在这里插入图片描述


二、安装

【1】将Flume安装包上传至集群
【2】解压
tar -zxf sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz -C ../servers/
【3】配置环境变量(可选操作)
1.vim /etc/profile.d/flume.sh

2.根据自己安装的位置添加如下配置文件:
export FLUME_HOME=/export/servers/apache-flume-1.8.0-bin
export PATH=$PATH:$FLUME_HOME/bin
【4】配置JAVA_HOME
1.cd $FLUME_HOME/conf
2.cp flume-env.sh.template flume-env.sh
3.vim flume-env.sh

在这里插入图片描述

【5】配置日志目录(可选操作)
vim log4j.properties	

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值