大数据演变轨迹

一说到开源大数据处理平台,就不得不说此领域的开山鼻祖Hadoop,它是GFS和MapReduce的开源实现。虽然在此以前有不少相似的分布式存储和计算平台,但真正能实现工业级应用、下降使用门槛、带动业界大规模部署的就是Hadoop。得益于MapReduce框架的易用性和容错性,以及同时包含存储系统和计算系统,使得Hadoop成为大数据处理平台的基石之一。Hadoop可以知足大部分的离线存储和离线计算需求,且性能表现不俗;小部分离线存储和计算需求,在对性能要求不高的状况下,也可使用Hadoop实现。所以,在搭建大数据处理平台的初期,Hadoop能知足90%以上的离线存储和离线计算需求,成为了各大公司初期平台的首选。node

一共81个,开源大数据处理工具汇总(上)算法

一共81个,开源大数据处理工具汇总(下),包括日志收集系统/集群管理/RPC等数据库

随着Hadoop集群愈来愈大,单点的namenode渐渐成为了问题:第一个问题是单机内存有限,承载不了愈来愈多的文件数目;第二个问题是单点故障,严重影响集群的高可用性。所以业界出现了几种分布式namenode的方案,用以解决单点问题。此外,为了实现多种计算框架能够运行在同一个集群中,充分复用机器资源,Hadoop引进了YARN。YARN是一个通用资源管理器,负责资源调度和资源隔离。它试图成为各个计算框架的统一资源管理中心,使得同一个集群能够同时跑MapReduce、storm、Tez等实例。安全

Hadoop解决了大数据平台的有无问题,随着业务和需求的精细化发展,在一些细分领域人们对大数据平台提出了更高的指望和要求,所以诞生了一批在不一样领域下的更高效更有针对性的平台。首先基于对Hadoop框架自身的改良,出现了haloop和dryad等变种平台,不过这些平台后来基本上都没有被大规模部署,其缘由要么是改良效果不明显,要么是被跳出Hadoop框架从新设计的新平台所取代了。服务器

为了解决在hadoop平台上更好地进行海量网页分析,进而实现通用的分布式NoSQL数据库的问题,HBase诞生了。Hadoop参照了Google的GFS和MapReduce的设计。而Google的BigTable在Hadoop的生态圈里对应的则是HBase。HBase丰富了Hadoop的存储方式,在hdfs的文件式存储的基础上,提供了表格式存储,使得能够将网页的众多属性提取出来按字段存放,提高网页查询分析的效率。同时,HBase也普遍被用做通用的NoSQL存储系统,它是基于列存储的非关系型数据库,弥补了hdfs在随机读写方面的不足,提供低延时的数据访问能力。但HBase自己没有提供脚本语言式(如SQL)的数据访问方式,为了克服数据访问的不便捷问题,最开始用于Hadoop的PIG语言开始支持HBase。PIG是一种操做Hadoop和Hbase的轻量级脚本语言,不想编写MapReduce做业的人员能够用PIG方便地访问数据。架构

HBase相似的另外一个较为有名的系统是C++编写的Hypertable,也是BigTable的开源实现,不过因为后来维护的人员愈来愈少,以及Hadoop生态系统愈来愈活跃,渐渐地Hypertable被人们遗忘了。还有一个不得不提的系统是Cassandra,它最初由Facebook开发,也是一个分布式的NoSQL数据库。但与HBase和Hypertable是Bigtable的复制者不一样,Cassandra结合了Amazon的Dynamo的存储模型和Bigtable的数据模型。它的一大特色是使用Gossip协议实现了去中心化的P2P存储方式,全部服务器都是等价的,不存在任何一个单点问题。Cassandra与HBase的区别在于:Cassandra配置简单,平台组件少,集群化部署和运维较容易,CAP定理侧重于Availability和Partition tolerance,不提供行锁,不适合存储超大文件;HBase配置相对复杂,平台组件多,集群化部署和运维稍微麻烦,CAP定理侧重于Consistency和Availability,提供行锁,可处理超大文件。框架

虽然Hadoop的MapReduce框架足够易用,可是对于传统使用SQL操做的数据仓库类需求时,直接调用Map和Reduce接口来达到相似效果,仍是相对繁琐,并且对不熟悉MapReduce框架的使用者来讲是一个门槛,所以hive就是为了解决此问题而诞生。它在Hadoop上创建了一个数据仓库框架,能够将结构化的数据文件映射成一张数据库表,并提供相似SQL的查询接口,弥补了Hadoop和数据仓库操做的鸿沟,大大提升了数据查询和展现类业务的生产效率。一方面,熟悉SQL的使用者只须要很小的成本就能够迁移至hive平台,另外一方面,因为量级大而在传统数据仓库架构下已没法存放的数据,也能够较为容易地迁移到hive平台。所以hive平台已经成为了不少公司的大数据仓库的核心方案。运维

Hive跟hbase在功能上也有小部分重叠的地方,它们的主要区别是:Hbase本质是一个数据库,提供在存储层的低延时数据读写能力,可用在实时场景,但没有提供类SQL语言的查询方式,因此数据查询和计算不太方便(PIG学习成本较高);hive本质是将SQL语句映射成MapReduce做业,延时较高但使用方便,适合离线场景,自身不作存储。此外,hive能够搭建在Hbase之上,访问Hbase的数据。机器学习

Hive的出现桥接了Hadoop与数据仓库领域,但随着hive的逐步应用,人们发现hive的效率并非过高,缘由是hive的查询是使用MapReduce做业的方式实现的,是在计算层而不是存储层,所以受到了MapReduce框架单一的数据传输和交互方式的局限、以及做业调度开销的影响。为了让基于Hadoop的数据仓库操做效率更高,在hive以后出现了另外一个不一样的实现方案——impala,它的基于Hadoop的数据查询操做,并非使用MapReduce做业的方式实现,而是跳过了Hadoop的计算层,直接读写hadoop的存储层——hdfs来实现。因为省去了计算层,所以也就省去了计算层全部的开销,避免了计算层的单一数据交互方式的问题,以及多轮计算之间的磁盘IO问题。直接读写hdfs,能够实现更加灵活的数据交互方式,提升读写效率。它实现了嵌套型数据的列存储,同时采用了多层查询树,使得它能够在数千节点中快速地并行执行查询与结果聚合。据一些公开的资料显示,impala在各个场景下的效率能够比hive提高3~68倍,尤为在某些特殊场景下的效率提高甚至可达90倍。分布式

Hadoop极大下降了海量数据计算能力的门槛,使得各个业务均可以快速使用Hadoop进行大数据分析,随着分析计算的不断深刻,差别化的需求慢慢浮现了。人们开始发现,某些计算,若是时效性更快,收益会变得更大,能提供给用户更好的体验。一开始,在Hadoop平台上为了提升时效性,每每会将一整批计算的海量数据,切割成小时级数据,甚至亚小时级数据,从而变成相对轻量的计算任务,使得在Hadoop上能够较快地计算出当前片断的结果,再把当前片断结果跟以前的累积结果进行合并,就能够较快地得出当前所需的总体结果,实现较高的时效性。但随着互联网行业竞争愈来愈激烈,对时效性愈来愈看重,尤为是实时分析统计的需求大量涌现,分钟级甚至秒级输出结果,是你们所指望的。hadoop计算的时效性所能达到的极限通常为10分钟左右,受限于集群负载和调度策略,要想持续稳定地低于10分钟是很是困难的,除非是专用集群。所以,为了实现更高的时效性,在分钟级、秒级、甚至毫秒级内计算出结果,Storm应运而生,它彻底摆脱了MapReduce架构,从新设计了一个适用于流式计算的架构,以数据流为驱动,触发计算,所以每来一条数据,就能够产生一次计算结果,时效性很是高,通常能够达到秒级。并且它的有向无环图计算拓扑的设计,提供了很是灵活丰富的计算方式,覆盖了常见的实时计算需求,所以在业界获得了大量的部署应用。

Storm的核心框架保证数据流可靠性方式是:每条数据会被至少发送一次,即正常状况会发送一次,异常状况会重发。这样会致使中间处理逻辑有可能会收到两条重复的数据。大多数业务中这样不会带来额外的问题,或者是可以容忍这样的偏差,但对于有严格事务性要求的业务,则会出现问题,例如扣钱重复扣了两次这是用户不可接受的。为了解决此问题,Storm引入了事务拓扑,实现了精确处理一次的语义,后来被新的Trident机制所取代。Trident同时还提供了实时数据的join、groupby、filter等聚合查询操做。

跟storm相似的系统还有yahoo的S4,不过storm的用户远远多于S4,所以storm的发展比较迅速,功能也更加完善。

随着大数据平台的逐步普及,人们再也不知足于如数据统计、数据关联等简单的挖掘,渐渐开始尝试将机器学习/模式识别的算法用于海量数据的深度挖掘中。由于机器学习/模式识别的算法每每比较复杂,属于计算密集型的算法,且是单机算法,因此在没有Hadoop以前,将这些算法用于海量数据上几乎是不可行,至少是工业应用上不可行:一是单机计算不了如此大量的数据;二是就算单机可以支撑,但计算时间太长,一般一次计算耗时从几个星期到几个月不等,这对于工业界来讲资源和时间的消耗不可接受;三是没有一个很易用的并行计算平台,能够将单机算法快速改为并行算法,致使算法的并行化成本很高。而有了Hadoop以后,这些问题迎刃而解,一大批机器学习/模式识别的算法得以快速用MapReduce框架并行化,被普遍用在搜索、广告、天然语言处理、个性化推荐、安全等业务中。

那么问题来了,上述的机器学习/模式识别算法每每都是迭代型的计算,通常会迭代几十至几百轮,那么在Hadoop上就是连续的几十至几百个串行的任务,先后两个任务之间都要通过大量的IO来传递数据,据不彻底统计,多数的迭代型算法在Hadoop上的耗时,IO占了80%左右,若是能够省掉这些IO开销,那么对计算速度的提高将是巨大的,所以业界兴起了一股基于内存计算的潮流,而Spark则是这方面的佼佼者。它提出了RDD的概念,经过对RDD的使用将每轮的计算结果分布式地放在内存中,下一轮直接从内存中读取上一轮的数据,节省了大量的IO开销。同时它提供了比Hadoop的MapReduce方式更加丰富的数据操做方式,有些须要分解成几轮的Hadoop操做,可在Spark里一轮实现。所以对于机器学习/模式识别等迭代型计算,比起Hadoop平台,在Spark上的计算速度每每会有几倍到几十倍的提高。另外一方面,Spark的设计初衷就是想兼顾MapReduce模式和迭代型计算,所以老的MapReduce计算也能够迁移至spark平台。因为Spark对Hadoop计算的兼容,以及对迭代型计算的优异表现,成熟以后的Spark平台获得迅速的普及。

人们逐渐发现,Spark所具备的优势,能够扩展到更多的领域,如今Spark已经向通用多功能大数据平台的方向迈进。为了让Spark能够用在数据仓库领域,开发者们推出了Shark,它在Spark的框架上提供了类SQL查询接口,与Hive QL彻底兼容,但最近被用户体验更好的Spark SQL所取代。Spark SQL涵盖了Shark的全部特性,并可以加速现有Hive数据的查询分析,以及支持直接对原生RDD对象进行关系查询,显著下降了使用门槛。在实时计算领域,Spark streaming项目构建了Spark上的实时计算框架,它将数据流切分红小的时间片断(例如几秒),批量执行。得益于Spark的内存计算模式和低延时执行引擎,在Hadoop上作不到的实时计算,在Spark上变得可行。虽然时效性比专门的实时处理系统有一点差距,但也可用于很多实时/准实时场景。另外Spark上还有图模型领域的Bagel,其实就是Google的Pregel在Spark上的实现。它提供基于图的计算模式,后来被新的Spark图模型API——GraphX所替代。

当大数据集群愈来愈大,出现局部故障的几率也愈来愈高,集群核心数据的分布式一致性变得愈来愈难保证。Zookeeper的出现很好地解决了这个棘手的问题,它实现了著名的Fast Paxos算法,提供了一个集群化的分布式一致性服务,使得其余平台和应用能够经过简单地调用它的服务来实现数据的分布式一致性,不须要本身关心具体的实现细节,使大数据平台开发人员能够将精力更加集中在平台自身特性上。例如Storm平台就是使用Zookeeper来存储集群元信息(如节点信息、状态信息、任务信息等),从而能够简单高效地实现容错机制。即便某个组件出现故障,新的替代者能够快速地在Zookeeper上注册以及获取所需的元信息,从而恢复失败的任务。除了分布式一致性之外,Zookeeper还能够用做leader选取、热备切换、资源定位、分布式锁、配置管理等场景。

数据在其生命周期是流动的,每每会有产生、收集、存储、计算、销毁等不一样状态,数据能够在不一样状态之间流动,也能够从同一个状态的内部进行流动(例如计算状态),流动时上下游的载体有不少种,例如终端、线上日志服务器、存储集群、计算集群等。在后台,多数状况下都是在大数据平台之间流动,所以各个大数据平台并非孤立的,处理数据时,它们每每成为上下游的关系,而数据从上游流往下游,就须要一个数据管道,来正确链接每份数据正确的上下游,这个场景的需求可使用Kafka集群来很好地解决。Kafka最初是由LinkedIn开发的,是一个分布式的消息发布与订阅系统。Kafka集群能够充当一个大数据管道的角色,负责正确链接每种数据的上下游。各个上游产生的数据都发往Kafka集群,而下游则经过向Kafka集群订阅的方式,灵活选择本身所需的上游数据。Kafka支持多个下游订阅同一个上游数据。当上游产生了数据,Kafka会把数据进行必定时间窗口内的持久化,等待下游来读取数据。Kafka的数据持久化方式及内部容错机制,提供了较好的数据可靠性,它同时适合于离线和在线消息消费。

以上平台的诞生时间点以下图所示:

Hadoop

大数据平台极大地提升了业界的生产力,使得海量数据的存储、计算变得更加容易和高效。经过这些平台的使用,能够快速搭建出一个承载海量用户的应用,移动互联网正是在它们的催化下不断高速发展,改变咱们的生活。

相关文章
相关标签/搜索