Flume是一个分布式、可靠、和高可用的海量日志聚合的系统,支持在系统中定制各种数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各类数据接受方(可定制)的能力。html
(1) 可靠性node
当节点出现故障时,日志可以被传送到其余节点上而不会丢失。Flume提供了三种级别的可靠性保障,从强到弱依次分别为:end-to-end(收到数据agent首先将event写到磁盘上,当数据传送成功后,再删除;若是数据发送失败,能够从新发送。),Store on failure(这也是scribe采用的策略,当数据接收方crash时,将数据写到本地,待恢复后,继续发送),Best effort(数据发送到接收方后,不会进行确认)。git
(2) 可扩展性github
Flume采用了三层架构,分别为agent,collector和storage,每一层都可以水平扩展。其中,全部agent和collector由master统一管理,这使得系统容易监控和维护,且master容许有多个(使用ZooKeeper进行管理和负载均衡),这就避免了单点故障问题。web
(3) 可管理性shell
全部agent和colletor由master统一管理,这使得系统便于维护。多master状况,Flume利用ZooKeeper和gossip,保证动态配置数据的一致性。用户能够在master上查看各个数据源或者数据流执行状况,且能够对各个数据源配置和动态加载。Flume提供了web 和shell script command两种形式对数据流进行管理。数组
(4) 功能可扩展性缓存
用户能够根据须要添加本身的agent,collector或者storage。此外,Flume自带了不少组件,包括各类agent(file, syslog等),collector和storage(file,HDFS等)。安全
flume的逻辑架构:服务器
正如前面提到的,Flume采用了分层架构:分别为agent,collector和storage。其中,agent和collector均由两部分组成:source和sink,source是数据来源,sink是数据去向。
Flume使用两个组件:Master和Node,Node根据在Master shell或web中动态配置,决定其是做为Agent仍是Collector。
agent的做用是将数据源的数据发送给collector。
Flume自带了不少直接可用的数据源(source),如:
更多可参见这位朋友的整理:http://www.cnblogs.com/zhangmiao-chp/archive/2011/05/18/2050465.html
同时提供了不少sink,如:
更多可参见这位朋友的整理:http://www.cnblogs.com/zhangmiao-chp/archive/2011/05/18/2050472.html
collector的做用是将多个agent的数据汇总后,加载到storage中。
它的source和sink与agent相似。
数据源(source),如:
sink,如:
storage是存储系统,能够是一个普通file,也能够是HDFS,HIVE,HBase,分布式存储等。
Master是管理协调agent和collector的配置等信息,是flume集群的控制器。
在Flume中,最重要的抽象是data flow(数据流),data flow描述了数据从产生,传输、处理并最终写入目标的一条路径。
注:Flume框架对hadoop和zookeeper的依赖只是在jar包上,并不要求flume启动时必须将hadoop和zookeeper服务也启动。
部署flume在集群上,按照以下步骤:
须要在集群的每台机器上部署Flume。
注意:flume集群整个集群的网络环境要保证稳定,可靠,不然会出现一些莫名错误(好比:agent端发送不了数据到collector)。
$wget http://cloud.github.com/downloads/cloudera/flume/flume-distribution-0.9.4-bin.tar.gz $tar -xzvf flume-distribution-0.9.4-bin.tar.gz $cp -rf flume-distribution-0.9.4-bin /usr/local/flume $vi /etc/profile #添加环境配置 export FLUME_HOME=/usr/local/flume export PATH=.:$PATH::$FLUME_HOME/bin $source /etc/profile $flume #验证安装
对于master的选择状况,能够在集群上定义一个master,也能够为了提升可用性选择多个节点作为master。
Flume master数量的选择原则:
分布式的master可以继续正常工做不会崩溃的前提是正常工做的master数量超过总master数量的一半。
Flume master 的做用主要有两个:
site-specific设置对于flume节点和master经过在每个集群节点的conf/flume-site.xml是可配置的,若是这个文件不存在,设置的属性默认的在conf/flume-conf.xml中,在接下来的例子中,在flume的节点上设置master名,让节点本身去寻找叫“master”的flume Master。
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property> <name>flume.master.servers</name> <value>master</value> </property> </configuration>
在多master的状况下须要以下配置:
<property> <name>flume.master.servers</name> <value>hadoopmaster.com,hadoopedge.com,datanode4.com</value> <description>A comma-separated list of hostnames, one for each machine in the Flume Master.</description> </property> <property> <name>flume.master.store</name> <value>zookeeper</value> <description>How the Flume Master stores node configurations. Must be either 'zookeeper' or 'memory'.</description> </property> <property> <name>flume.master.serverid</name> <value>2</value> <description>The unique identifier for a machine in a Flume Master ensemble. Must be different on every master instance.</description> </property>
注意:flume.master.serverid 属性的配置主要是针对master,集群上Master节点的flume.master.serverid 必须是不能相同的,该属性的值以0开始。
当使用agent角色时,你能够经过添加下面的配置文件在flume-conf.xml中,来设置默认的collector主机:
<property> <name>flume.collector.event.host</name> <value>collector</value> <description>This is the host name of the default "remote" collector.</description> </property> <property> <name>flume.collector.port</name> <value>35853</value> <description>This default tcp port that the collector listens to in order to receive events it is collecting.</description> </property>
关于配置可参见:http://www.cnblogs.com/zhangmiao-chp/archive/2011/05/18/2050443.html。
集群上节点启动:
名字规则本身定义,方便记忆和动态配置便可(后续会有介绍动态配置)
关于flume shell 中的command参见:http://www.cnblogs.com/zhangmiao-chp/archive/2011/05/18/2050461.html
假设咱们目前部署的Flume集群结构以下:
咱们想将A-F所在的机器的系统日志收集到HDFS中,怎么样在flume shell中配置达到咱们的目的呢?
1. 设置逻辑节点(logical node)
$flume shell >connect localhost >help >exec map 192.168.0.1 agentA >exec map 192.168.0.2 agentB >exec map 192.168.0.3 agentC >exec map 192.168.0.4 agentD >exec map 192.168.0.5 agentE >exec map 192.168.0.6 agentF >getnodestatus 192.168.0.1 --> IDLE 192.168.0.2 --> IDLE 192.168.0.3 --> IDLE 192.168.0.4 --> IDLE 192.168.0.5 --> IDLE 192.168.0.6 --> IDLE agentA --> IDLE agentB --> IDLE agentC --> IDLE agentD --> IDLE agentE --> IDLE agentF --> IDLE >exec map 192.168.0.11 collector
这里你也能够打开web master界面查看。
2.启动Collector的监听端口
>exec config collector 'collectorSource(35853)' 'collectorSink("","")'#collector节点监听35853端口过来的数据,这一部很是重要
登录到collector服务器进行端口检测
$netstat -nalp|grep 35853
若是在master中未进行上述配置,在collector上检测不到此打开端口
3.设置各节点的source和sink
>exec config collector 'collectorSource(35853)' 'collectorSink("hdfs://namenode/flume/","syslog")' >exec config agentA 'tail("/tmp/log/message")' 'agentBESink("192.168.0.11")' #通过实验,好像一个逻辑节点,最多只能有一个source和sink.
>...
>exec config agentF 'tail("/tmp/log/message")' 'agentBESink("192.168.0.11")'
这时的配置状况可从master web中一目了然,此时已经能够达到咱们最初的目的了。
以上经过flume shell进行的动态配置,在flume master web中均可以进行,在此不作进一步说明。
高级配置其实就是在上述简单配置中增长了如下几个特性来保证系统更好的运行:
多Master的状况在上面已经有过介绍,包括用途和master个数等。下面来简单看一下Collector Chain,其实也很简单,就是在动态配置时,使用agent*Chain来指定多个Collector来保证其日志传输的可用性。看一下通常正式环境中flume的逻辑图:
这里agentA和agentB指向collectorA,若是CollectorA crach了,根据配置的可靠性级别agent会有相应的动做,咱们极可能为了保障高效传输而没有选择E2E(即便是这种方式,Agent本地日志累积过多依然是一个问题),通常会配置多个Collector,造成collector chain。
>exec config agentC 'tail("/tmp/log/message")' 'agentE2EChain("collectorB:35853","collectorA:35853")' >exec config agentD 'tail("/tmp/log/message")' 'agentE2EChain("collectorB:35853","collectorC:35853")'
这样collectorB在出问题时:
上述节点有以下几类:master、agent、collector、storage,针对每类节点咱们看一下高可用和有没有可能引发性能瓶颈问题。
首先,storage层的失败和collector层的失败是同样的,只要数据放不到最终的位置,就认为节点是失败的。咱们必定会根据收集数据的可靠性设定合适的传输模式,并且会根据咱们的配置,本身控制collector接收数据的状况,collector的性能影响的是整个flume集群的数据吞吐量,因此collector最好单独部署,因此通常不用考虑高可用问题。
而后,agent层的失败,Flume数据安全级别的配置主要Agent的配置上,Agent提供三种级别发送数据到collector:E2E、DFO、BF,在些不赘述。看一下一位大牛的总结:
agent节点监控日志文件夹下的全部文件,每个agent最多监听1024个文件,每个文件在agent的都会有一个相似游标的东西,记录监听文件读取的位置,这样每次文件有新的记录产生,那么游标就会读取增量记录,根据agent配置发送到collector的安全层级属性有E2E,DFO。
若是是E2E的状况那么agent节点会首先把文件写入到agent节点的文件夹下,而后发送给collector,若是最终数据最终成功存储到storage层,那么agent删除以前写入的文件,若是没有收到成功的信息,那么就保留信息。 若是agent节点出现问题,那么至关于全部的记录信息都消失了,若是直接从新启动,agent会认为日志文件夹下的全部文件都是没有监听过的,没有文件记录的标示,因此会从新读取文件,这样,日志就会有重复,具体恢复办法以下 将agent节点上监听的日志文件夹下已经发送的日志文件移出,处理完,故障从新启动agent便可。 注:在agent节点失败的状况下,按照失败的时间点,将时间点以前的数据文件移出,将flume.agent.logdir配置的文件夹清空,从新启动agent。
最后,master失败,master宕机,整个集群将不能工做,在从新启动集群,将agent监听的日志文件夹下的全部文件移出,而后从新启动master便可。在多master节点状况下,只要集群上正常工做的master大于总master数量的一半,集群就能正常工做,那么只要恢复其中宕机的master便可。
1.Flume在agent端采集数据的时候默认会在/tmp/flume-{user}下生成临时的目录用于存放agent本身截取的日志文件,若是文件过大致使磁盘写满那么agent端会报出 Error closing logicalNode a2-18 sink: No space left on device,因此在配置agent端的时候须要注意 <property> <name>flume.agent.logdir</name> <value>/data/tmp/flume-${user.name}/agent</value> </property> 属性,只要保证flume在7*24小时运行过程agent端不会使该路径flume.agent.logdir磁盘写满便可。
2. Flume在启动时候会去寻找hadoop-core-*.jar的文件,须要修改标准版的hadoop核心jar包的名字 将hadoop-*-core.jar改为hadoop-core-*.jar。
3.Flume集群中的flume必须版本一致。不然会出现莫名其妙的错误。
4.Flume集群收集的日志发送到hdfs上创建文件夹的时间依据是根据event的时间,在源代码上是Clock.unixTime(),因此若是想要根据日志生成的时间来生成文件的话,须要对 com.cloudera.flume.core.EventImpl 类的构造函数 public EventImpl(byte[] s, long timestamp, Priority pri, long nanoTime, String host, Map<String, byte[]> fields)从新写,解析数组s的内容取出时间,赋给timestamp。
注意:flume的框架会构造s内容是空的数组,用来发送相似简单验证的event,因此须要注意s内容为空的时候timestamp的问题。
5.若是collector和agent不在一个网段的话会发生闪断的现象,这样的话,就会形成agent端不能传送数据个collector因此,在部署agent和collector最好在一个网段。
6.若是在启动master时出现:“试着启动hostname,可是hostname不在master列表里的错误“,这是须要检查是否主机地址和hostname配置的正确与否。
7.在源端,有一个比较大的缺陷,在tail类的source,不支持,断点续传功能。由于重启node后没有记录上次文件读到的位置,从而没办法知道,下次再读时,从什么地方开始读。 特别是在日志文件一直在增长的时候。flume的source node挂了。等flume的source再次开启的这段时间内,增长的日志内容,就没办法被source读取到了。 不过flume有一个execStream的扩展,能够本身写一个监控日志增长状况,把增长的日志,经过本身写的工具把增长的内容,传送给flume的node。再传送给sink的node。
之前文章中介绍过Scribe方案,给个人最直观感觉就是:
下面董的博客中的一副对比图: