出处:http://blog.csdn.net/luobailian/article/details/50412187html
做者:大数据女神-诺蓝(微信公号:dashujunvshen)。本文是36大数据专稿,转载必须标明来源36大数据。java
本文一共分为上下两部分。咱们将针对大数据开源工具不一样的用处来进行分类,而且附上了官网和部分下载连接,但愿能给作大数据的朋友作个参考。下面是第一部分。node
1、Phoenixgit
贡献者::Salesforcegithub
简介:这是一个Java中间层,可让开发者在Apache HBase上执行SQL查询。Phoenix彻底使用Java编写,代码位于GitHub上,而且提供了一个客户端可嵌入的JDBC驱动。web
Phoenix查询引擎会将SQL查询转换为一个或多个HBase scan,并编排执行以生成标准的JDBC结果集。直接使用HBase API、协同处理器与自定义过滤器,对于简单查询来讲,其性能量级是毫秒,对于百万级别的行数来讲,其性能量级是秒。redis
Phoenix最值得关注的一些特性有:算法
❶嵌入式的JDBC驱动,实现了大部分的java.sql接口,包括元数据API
❷能够经过多部行键或是键/值单元对列进行建模
❸完善的查询支持,可使用多个谓词以及优化的扫描键
❹DDL支持:经过CREATE TABLE、DROP TABLE及ALTER TABLE来添加/删除列
❺版本化的模式仓库:当写入数据时,快照查询会使用恰当的模式
❻DML支持:用于逐行插入的UPSERT VALUES、用于相同或不一样表之间大量数据传输的UPSERT ❼SELECT、用于删除行的DELETE
❽经过客户端的批处理实现的有限的事务支持
❾单表——尚未链接,同时二级索引也在开发当中
➓紧跟ANSI SQL标准sql
Phoenix官方网站>>>mongodb
2、Stinger
贡献者::Hortonworks
简介:原叫Tez,下一代Hive,Hortonworks主导开发,运行在YARN上的DAG计算框架。
某些测试下,Stinger能提高10倍左右的性能,同时会让Hive支持更多的SQL,其主要优势包括:
❶让用户在Hadoop得到更多的查询匹配。其中包括相似OVER的字句分析功能,支持WHERE查询,让Hive的样式系统更符合SQL模型。
❷优化了Hive请求执行计划,优化后请求时间减小90%。改动了Hive执行引擎,增长单Hive任务的被秒处理记录数。
❸在Hive社区中引入了新的列式文件格式(如ORC文件),提供一种更现代、高效和高性能的方式来储存Hive数据。
❹引入了新的运行时框架——Tez,旨在消除Hive的延时和吞吐量限制。Tez经过消除没必要要的task、障碍同步和对HDFS的读写做业来优化Hive job。这将优化Hadoop内部的执行链,完全加速Hive负载处理。
3、Presto
贡献者::Facebook
简介:Facebook开源的数据查询引擎Presto ,可对250PB以上的数据进行快速地交互式分析。该项目始于 2012 年秋季开始开发,目前该项目已经在超过 1000 名 Facebook 雇员中使用,运行超过 30000 个查询,每日数据在 1PB 级别。Facebook 称 Presto 的性能比诸如 Hive 和 Map*Reduce 要好上 10 倍有多。
Presto 当前支持 ANSI SQL 的大多数特效,包括联合查询、左右联接、子查询以及一些聚合和计算函数;支持近似大相径庭的计数(DISTINCT COUNT)等。
4、Shark
简介:Shark即Hive on Spark,本质上是经过Hive的HQL解析,把HQL翻译成Spark上的RDD操做,而后经过Hive的metadata获取数据库里的表信息,实际HDFS上的数据和文件,会由Shark获取并放到Spark上运算。Shark的特色就是快,彻底兼容Hive,且能够在shell模式下使用rdd2sql()这样的API,把HQL获得的结果集,继续在scala环境下运算,支持本身编写简单的机器学习或简单分析处理函数,对HQL结果进一步分析计算。
❶Shark速度快的缘由除了Spark平台提供的基于内存迭代计算外,在设计上还存在对Spark上进行了必定的改造,主要有
❷partial DAG execution:对join优化,调节并行粒度,由于Spark自己的宽依赖和窄依赖会影响并行计算和速度
基于列的压缩和存储:把HQL表数据按列存,每列是一个array,存在JVM上,避免了JVM GC低效,而压缩和解压相关的技术是Yahoo!提供的。
结来讲,Shark是一个插件式的东西,在我现有的Spark和Hive及hadoop-client之间,在这两套均可用的状况下,Shark只要获取Hive的配置(还有metastore和exec等关键包),Spark的路径,Shark就能利用Hive和Spark,把HQL解析成RDD的转换,把数据取到Spark上运算和分析。在SQL on Hadoop这块,Shark有别于Impala,Stringer,而这些系统各有本身的设计思路,相对于对MR进行优化和改进的思路,Shark的思路更加简单明了些。
5、Pig
简介:Pig是一种编程语言,它简化了Hadoop常见的工做任务。Pig可加载数据、表达转换数据以及存储最终结果。Pig内置的操做使得半结构化数据变得有意义(如日志文件)。同时Pig可扩展使用Java中添加的自定义数据类型并支持数据转换。
Pig最大的做用就是对mapreduce算法(框架)实现了一套shell脚本 ,相似咱们一般熟悉的SQL语句,在Pig中称之为Pig Latin,在这套脚本中咱们能够对加载出来的数据进行排序、过滤、求和、分组(group by)、关联(Joining),Pig也能够由用户自定义一些函数对数据集进行操做,也就是传说中的UDF(user-defined functions)。
6、Cloudera Impala
贡献者::Cloudera
简介:Cloudera Impala 能够直接为存储在HDFS或HBase中的Hadoop数据提供快速,交互式的SQL查询。除了使用相同的存储平台外, Impala和Apache Hive同样也使用了相同的元数据,SQL语法(Hive SQL),ODBC驱动和用户接口(Hue Beeswax),这就很方便的为用户提供了一个类似而且统一的平台来进行批量或实时查询。
Cloudera Impala 是用来进行大数据查询的补充工具。 Impala 并无取代像Hive这样基于MapReduce的分布式处理框架。Hive和其它基于MapReduce的计算框架很是适合长时间运行的批处理做业,例如那些涉及到批量 Extract、Transform、Load ,即须要进行ETL做业。
Impala 提供了:
❶数据科学家或数据分析师已经熟知的SQL接口
❷可以在Apache Hadoop 的大数据中进行交互式数据查询
❸ Single system for big data processing and analytics so customers can avoid costly modeling and ETL just for analytics
7、Apache Drill
贡献者::MapR
简介:Apache Drill是是一个可以对大数据进行交互分析、开源的分布式系统,且基于Google Dremel实现,它可以运行在上千个节点的服务器集群上,且能在几秒内处理PB级或者万亿条的数据记录。Drill可以帮助企业用户快速、高效地进行Hadoop数据查询和企业级大数据分析。Drill于2012年8月份由Apache推出。
从Drill官方对其架构的介绍中得知,其具备适于实时的分析和快速的应用开发、适于半结构化/嵌套数据的分析、兼容现有的SQL环境和Apache Hive等特征。另外,Drill的核心模块是Drillbit服务,该服务模块包括远程访问子模块、SQL解析器、查询优化器、任务计划执行引擎、存储插件接口(DFS、HBase、Hive等的接口)、分布式缓存模块等几部分,以下图所示:
8、Apache Tajo
简介:Apache Tajo项目的目的是在HDFS之上构建一个先进的数据仓库系统。Tajo将本身标榜为一个“大数据仓库”,可是它好像和以前介绍的那些低延迟查询引擎相似。虽然它支持外部表和Hive数据集(经过HCatalog),可是它的重点是数据管理,提供低延迟的数据访问,以及为更传统的ETL提供工具。它也须要在数据节点上部署Tajo特定的工做进程。
Tajo的功能包括:
❶ANSI SQL兼容
❷JDBC 驱动
❸集成Hive metastore可以访问Hive数据集
❹一个命令行客户端
❺一个自定义函数API
9、Hive
简介:hive是基于Hadoop的一个数据仓库工具,能够将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,能够将sql语句转换为MapReduce任务进行运行。 其优势是学习成本低,能够经过类SQL语句快速实现简单的MapReduce统计,没必要开发专门的MapReduce应用,十分适合数据仓库的统计分析。
1、Facebook Puma
贡献者:Facebook
简介:实时数据流分析
2、Twitter Rainbird
贡献者:Twitter
简介:Rainbird一款基于Zookeeper, Cassandra, Scribe, Thrift的分布式实时统计系统,这些基础组件的基本功能以下:
❶ Zookeeper,Hadoop子项目中的一款分布式协调系统,用于控制分布式系统中各个组件中的一致性。
❷Cassandra,NoSQL中一款很是出色的产品,集合了Dynamo和Bigtable特性的分布式存储系统,用于存储须要进行统计的数据,统计数据,而且提供客户端进行统计数据的查询。(须要使用分布式Counter补丁CASSANDRA-1072)
❸ Scribe,Facebook开源的一款分布式日志收集系统,用于在系统中将各个须要统计的数据源收集到Cassandra中。
❹ Thrift,Facebook开源的一款跨语言C/S网络通讯框架,开发人员基于这个框架能够轻易地开发C/S应用。
用处
Rainbird能够用于实时数据的统计:
❶统计网站中每个页面,域名的点击次数
❷内部系统的运行监控(统计被监控服务器的运行状态)
❸记录最大值和最小值
3、Yahoo S4
贡献者:Yahoo
简介:S4(Simple Scalable Streaming System)最初是Yahoo!为提升搜索广告有效点击率的问题而开发的一个平台,经过统计分析用户对广告的点击率,排除相关度低的广告,提高点击率。目前该项目刚启动不久,因此也能够理解为是他们提出的一个分布式流计算(Distributed Stream Computing)的模型。
S4的设计目标是:
·提供一种简单的编程接口来处理数据流
·设计一个能够在普通硬件之上可扩展的高可用集群。
·经过在每一个处理节点使用本地内存,避免磁盘I/O瓶颈达到最小化延迟
·使用一个去中心的,对等架构;全部节点提供相同的功能和职责。没有担负特殊责任的中心节点。这大大简化了部署和维护。
·使用可插拔的架构,使设计尽量的即通用又可定制化。
·友好的设计理念,易于编程,具备灵活的弹性
4、Twitter Storm
贡献者:Twitter
简介:Storm是Twitter开源的一个相似于Hadoop的实时数据处理框架,它原来是由BackType开发,后BackType被Twitter收购,将Storm做为Twitter的实时数据分析系统。
实时数据处理的应用场景很普遍,例如商品推荐,广告投放,它能根据当前情景上下文(用户偏好,地理位置,已发生的查询和点击等)来估计用户点击的可能性并实时作出调整。
storm的三大做用领域:
1.信息流处理(Stream Processing)
Storm能够用来实时处理新数据和更新数据库,兼具容错性和可扩展性,它 能够用来处理源源不断的消息,并将处理以后的结果保存到持久化介质中。
2.连续计算(Continuous Computation)
Storm能够进行连续查询并把结果即时反馈给客户,好比将Twitter上的热门话题发送到客户端。
3.分布式远程过程调用(Distributed RPC)
除此以外,Storm也被普遍用于如下方面:
1、Apache Hama
简介:Apache Hama是一个纯BSP(Bulk Synchronous Parallel)计算框架,模仿了Google的Pregel。用来处理大规模的科学计算,特别是矩阵和图计算。
❶创建在Hadoop上的分布式并行计算模型。
❷基于 Map/Reduce 和 Bulk Synchronous 的实现框架。
❸运行环境须要关联 Zookeeper、HBase、HDFS 组件。
Hama中有2个主要的模型:
– 矩阵计算(Matrix package)
– 面向图计算(Graph package)
2、Apache Giraph
代码托管地址: GitHub
简介:Apache Giraph是一个可伸缩的分布式迭代图处理系统,灵感来自BSP(bulk synchronous parallel)和Google的Pregel,与它们 区别于则是是开源、基于 Hadoop 的架构等。
Giraph处理平台适用于运行大规模的逻辑计算,好比页面排行、共享连接、基于个性化排行等。Giraph专一于社交图计算,被Facebook做为其Open Graph工具的核心,几分钟内处理数万亿次用户及其行为之间的链接。
3、HaLoop
简介:迭代的MapReduce,HaLoop——适用于迭代计算的Hadoop 。
Hadoop与HaLoop的不一样
与Hadoop比较的四点改变:
1.提供了一套新的编程接口,更加适用于迭代计算;
HaLoop给迭代计算一个抽象的递归公式:
2.HaLoop的master进行job内的循环控制,直到迭代计算结束;
3.Task Scheduler也进行了修改,使得任务可以尽可能知足data locality
4.slave nodes对数据进行cache并index索引,索引也以文件的形式保存在本地磁盘。
4、Twister
简介:Twister, 迭代式MapReduce框架,Twister是由一个印度人开发的,其架构以下:
在Twister中,大文件不会自动被切割成一个一个block,于是用户需提早把文件分红一个一个小文件,以供每一个task处理。在map阶段,通过map()处理完的结果被放在分布式内存中,而后经过一个broker network(NaradaBroking系统)将数据push给各个reduce task(Twister假设内存足够大,中间数据能够所有放在内存中);在reduce阶段,全部reduce task产生的结果经过一个combine操做进行归并,此时,用户能够进行条件断定, 肯定迭代是否结束。combine后的数据直接被送给map task,开始新一轮的迭代。为了提升容错性,Twister每隔一段时间会将map task和reduce task产生的结果写到磁盘上,这样,一旦某个task失败,它能够从最近的备份中获取输入,从新计算。
为了不每次迭代从新建立task,Twister维护了一个task pool,每次须要task时直接从pool中取。在Twister中,全部消息和数据都是经过broker network传递的,该broker network是一个独立的模块,目前支持NaradaBroking和ActiveMQ。
1、Hadoop MapReduce
简介:MapReduce是一种编程模型,用于大规模数据集(大于1TB)的并行运算。概念”Map(映射)”和”Reduce(归约)”,和它们的主要思想,都是从函数式编程语言里借来的,还有从矢量编程语言里借来的特性。它极大地方便了编程人员在不会分布式并行编程的状况下,将本身的程序运行在分布式系统上。 当前的软件实现是指定一个Map(映射)函数,用来把一组键值对映射成一组新的键值对,指定并发的Reduce(归约)函数,用来保证全部映射的键值对中的每个共享相同的键组。
2、Berkeley Spark
简介:Spark是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行,Spark,拥有Hadoop MapReduce所具备的优势;但不一样于MapReduce的是Job中间输出结果能够保存在内存中,从而再也不须要读写HDFS,所以Spark能更好地适用于数据挖掘与机器学习等须要迭代的map reduce的算法。
3、DataTorrent
简介:DataTorrent基于Hadoop 2.x构建,是一个实时的、有容错能力的数据流式处理和分析平台,它使用本地Hadoop应用程序,而这些应用程序能够与执行其它任务,如批处理,的应用程序共存。该平台的架构以下图所示:
相关文章:DataTorrent 1.0每秒处理超过10亿个实时事件
DataTorrent 将数据分析速度从“实时”提高至“如今时”
1、LevelDB
贡献者:Google
简介:Leveldb是一个google实现的很是高效的kv数据库,目前的版本1.2可以支持billion级别的数据量了。 在这个数量级别下还有着很是高的性能,主要归功于它的良好的设计。特别是LMS算法。
LevelDB 是单进程的服务,性能很是之高,在一台4核Q6600的CPU机器上,每秒钟写数据超过40w,而随机读的性能每秒钟超过10w。
此处随机读是彻底命中内存的速度,若是是不命中 速度大大降低。
2、RocksDB
贡献者:facebook
简介:RocksDB虽然在代码层面上是在LevelDB原有的代码上进行开发的,但却借鉴了Apache HBase的一些好的idea。在云计算横行的年代,开口不离Hadoop,RocksDB也开始支持HDFS,容许从HDFS读取数据。RocksDB支持一次获取多个K-V,还支持Key范围查找。LevelDB只能获取单个Key。
RocksDB除了简单的Put、Delete操做,还提供了一个Merge操做,说是为了对多个Put操做进行合并。
RocksDB提供一些方便的工具,这些工具包含解析sst文件中的K-V记录、解析MANIFEST文件的内容等。RocksDB支持多线程合并,而LevelDB是单线程合并的。
3、HyperDex
贡献者:Facebook
HyperDex是一个分布式、可搜索的键值存储系统,特性以下:
4、TokyoCabinet
官网:http://project-voldemort.com/
9、Redis
Redis是一个高性能的key-value存储系统,和Memcached相似,它支持存储的value类型相对更多,包括string(字符串)、list(链表)、set(集合)和zset(有序集合)。与memcached同样,为了保证效率,数据都是缓存在内存中,区别的是Redis会周期性的把更新的数据写入磁盘或者把修改操做写入追加的记录文件,而且在此基础上实现了主从同步。
Redis的出现,很大程度补偿了memcached这类key/value存储的不足,在部分场合能够对关系数据库起到很好的补充做用。它提供了Python、Ruby、Erlang、PHP客户端,使用很方便。
1、OceanBase
贡献者:阿里巴巴
相关文章:26页PPT解密支撑支付宝交易的分布式数据库系统——OceanBase
简介:OceanBase是一个支持海量数据的高性能分布式数据库系统,实现了数千亿条记录、数百TB数据上的跨行跨表事务,由淘宝核心系统研发部、运维、DBA、广告、应用研发等部门共同完成。在设计和实现OceanBase的时候暂时摒弃了不紧急的DBMS的功能,例如临时表,视图(view),研发团队把有限的资源集中到关键点上,当前 OceanBase主要解决数据更新一致性、高性能的跨表读事务、范围查询、join、数据全量及增量dump、批量数据导入。
目前OceanBase已经应用于淘宝收藏夹,用于存储淘宝用户收藏条目和具体的商品、店铺信息,天天支持4~5千万的更新操做。等待上线的应用还包括CTU、SNS等,天天更新超过20亿,更新数据量超过2.5TB,并会逐步在淘宝内部推广。
OceanBase 0.3.1在Github开源,开源版本为Revision:12336。
官网:http://alibaba.github.io/oceanbase/
2、Amazon SimpleDB
贡献者:亚马逊
Amazon SimpleDB是一个分散式数据库,以Erlang撰写。同与Amazon EC2和亚马逊的S3同样做为一项Web 服务,属于亚马逊网络服务的一部分。
正如EC2和S3,SimpleDB的按照存储量,在互联网上的传输量和吞吐量收取费用。 在2008年12月1日,亚马逊推出了新的订价策略,提供了免费1 GB的数据和25机器小时的自由层(Free Tire)。 将其中的数据转移到其余亚马逊网络服务是免费的。
它是一个可大规模伸缩、用 Erlang 编写的高可用数据存储。
官网:http://aws.amazon.com/cn/simpledb/
3、Vertica
贡献者:惠普
简介:惠普2011年2月份起始3月21号完成收购Vertica。Vertica基于列存储。基于列存储的设计相比传统面向行存储的数据库具备巨大的优点。同时Vertica支持MPP(massively parallel processing)等技术,查询数据时Vertica只需取得须要的列,而不是被选择行的全部数据,其平均性能可提升50x-1000x倍。(查询性能高速度快)
Vertica的设计者屡次表示他们的产品围绕着高性能和高可用性设计。因为对MPP技术的支持,可提供对粒度,可伸缩性和可用性的优点。每一个节点彻底独立运做,彻底无共享架构,下降对共享资源的系统竞争。
Vertica的数据库使用标准的SQL查询,同时Vertica的架构很是适合云计算,包括虚拟化,分布式多节点运行等,而且能够和Hadoop/MapReduce进行集成。
Vertica官网:http://www.vertica.com/
4、Cassandra
贡献者:facebook
相关文章:开源分布式NoSQL数据库系统——Cassandra Cassandra与HBase的大数据对决 谁是胜者?
简介:Cassandra是一套开源分布式NoSQL数据库系统。它最初由Facebook开发,用于储存收件箱等简单格式数据,集GoogleBigTable的数据模型与Amazon Dynamo的彻底分布式的架构于一身Facebook于2008将 Cassandra 开源,此后,因为Cassandra良好的可扩放性,被Digg、Twitter等知名Web 2.0网站所采纳,成为了一种流行的分布式结构化数据存储方案。
Cassandra是一个混合型的非关系的数据库,相似于Google的BigTable。其主要功能比Dynamo (分布式的Key-Value存储系统)更丰富,但支持度却不如文档存储MongoDB(介于关系数据库和非关系数据库之间的开源产品,是非关系数据库当中功能最丰富,最像关系数据库的。支持的数据结构很是松散,是相似json的bjson格式,所以能够存储比较复杂的数据类型)。Cassandra最初由Facebook开发,后转变成了开源项目。它是一个网络社交云计算方面理想的数据库。以Amazon专有的彻底分布式的Dynamo为基础,结合了Google BigTable基于列族(Column Family)的数据模型。P2P去中心化的存储。不少方面均可以称之为Dynamo 2.0。
Cassandra官网:http://cassandra.apache.org/
5、HyperTable
简介:Hypertable是一个开源、高性能、可伸缩的数据库,它采用与Google的Bigtable类似的模型。在过去数年中,Google为在PC集群 上运行的可伸缩计算基础设施设计建造了三个关键部分。
第一个关键的基础设施是Google File System(GFS),这是一个高可用的文件系统,提供了一个全局的命名空间。它经过跨机器(和跨机架)的文件数据复制来达到高可用性,并所以免受传统 文件存储系统没法避免的许多失败的影响,好比电源、内存和网络端口等失败。第二个基础设施是名为Map-Reduce的计算框架,它与GFS紧密协做,帮 助处理收集到的海量数据。第三个基础设施是Bigtable,它是传统数据库的替代。Bigtable让你能够经过一些主键来组织海量数据,并实现高效的 查询。Hypertable是Bigtable的一个开源实现,而且根据咱们的想法进行了一些改进。
HyperTable官网:http://hypertable.org/
6、FoundationDB
简介:支持ACID事务处理的NoSQL数据库,提供很是好的性能、数据一致性和操做弹性。
2015年1月2日,FoundationDB已经发布了其key-value数据库的3.0版本,主要专一于可伸缩性和性能上的改善。FoundationDB的CEO David Rosenthal在一篇博客上宣布了新的版本,其中展现了FoundationDB 3.0在可伸缩性方面的数据,它能够在一个32位的c3.8xlarge EC2实例上每秒写入1440万次;这在性能上是以前版本的36倍。
除了性能和可伸缩性的改善以外,FoundationDB 3.0还包含了对监控支持的改善。这种监控机制不只仅是简单的机器检查,它添加了对多种潜在的硬件瓶颈的诊断,而且把那些高层级的信息整合到现有监控基础架构中。
七:HBase
贡献者: Fay Chang 所撰写的“Bigtable
简介:HBase是一个分布式的、面向列的开源数据库,该技术来源于 Fay Chang 所撰写的Google论文“Bigtable:一个结构化数据的分布式存储系统”。就像Bigtable利用了Google文件系统(File System)所提供的分布式数据存储同样,HBase在Hadoop之上提供了相似于Bigtable的能力。HBase是Apache的Hadoop项目的子项目。HBase不一样于通常的关系数据库,它是一个适合于非结构化数据存储的数据库。另外一个不一样的是HBase基于列的而不是基于行的模式。
1、CouchDB
简介:CouchDB是用Erlang开发的面向文档的数据库系统,最近刚刚发布了1.0版本(2010年7月14日)。CouchDB不是一个传统的关系数据库,而是面向文档的数据库,其数据存储方式有点相似lucene的index文件格式,CouchDB最大的意义在于它是一个面向web应用的新一代存储系统,事实上,CouchDB的口号就是:下一代的Web应用存储系统。
特色:
1、CouchDB是分布式的数据库,他能够把存储系统分布到n台物理的节点上面,而且很好的协调和同步节点之间的数据读写一致性。这固然也得靠Erlang无与伦比的并发特性才能作到。对于基于web的大规模应用文档应用,分布式可让它没必要像传统的关系数据库那样分库拆表,在应用代码层进行大量的改动。
2、CouchDB是面向文档的数据库,存储半结构化的数据,比较相似lucene的index结构,特别适合存储文档,所以很适合CMS,电话本,地址本等应用,在这些应用场合,文档数据库要比关系数据库更加方便,性能更好。
3、CouchDB支持REST API,可让用户使用JavaScript来操做CouchDB数据库,也能够用JavaScript编写查询语句,咱们能够想像一下,用AJAX技术结合CouchDB开发出来的CMS系统会是多么的简单和方便。
其实CouchDB只是Erlang应用的冰山一角,在最近几年,基于Erlang的应用也获得的蓬勃的发展,特别是在基于web的大规模,分布式应用领域,几乎都是Erlang的优点项目。
2、MongoDB
简介:MongoDB 是一个基于分布式文件存储的数据库。由C++语言编写。旨在为WEB应用提供可扩展的高性能数据存储解决方案。
MongoDB是一个介于关系数据库和非关系数据库之间的产品,是非关系数据库当中功能最丰富,最像关系数据库的。他支持的数据结构很是松散,是相似json的bson格式,所以能够存储比较复杂的数据类型。Mongo最大的特色是他支持的查询语言很是强大,其语法有点相似于面向对象的查询语言,几乎能够实现相似关系数据库单表查询的绝大部分功能,并且还支持对数据创建索引。
相关文章:MongoDB的基本特性与内部构造 大数据吃香 创业公司MongoDB估值达16亿美圆
特色
它的特色是高性能、易部署、易使用,存储数据很是方便。主要功能特性有:
*面向集合存储,易存储对象类型的数据。
mongodb集群参考
mongodb集群参考
*模式自由。
*支持动态查询。
*支持彻底索引,包含内部对象。
*支持查询。
*支持复制和故障恢复。
*使用高效的二进制数据存储,包括大型对象(如视频等)。
*自动处理碎片,以支持云计算层次的扩展性。
*支持RUBY,PYTHON,JAVA,C++,PHP,C#等多种语言。
*文件存储格式为BSON(一种JSON的扩展)。
*可经过网络访问。
3、Tachyon
贡献者:Haoyuan Li(李浩源)
简介:Tachyon是一个分布式内存文件系统,能够在集群里以访问内存的速度来访问存在tachyon里的文件。把Tachyon是架构在最底层的分布式文件存储和上层的各类计算框架之间的一种中间件。主要职责是将那些不须要落地到DFS里的文件,落地到分布式内存文件系统中,来达到共享内存,从而提升效率。同时能够减小内存冗余,GC时间等。
Tachyon架构
Tachyon的架构是传统的Master—slave架构,这里和Hadoop相似,TachyonMaster里WorkflowManager是 Master进程,由于是为了防止单点问题,经过Zookeeper作了HA,能够部署多台Standby Master。Slave是由Worker Daemon和Ramdisk构成。这里我的理解只有Worker Daemon是基于JVM的,Ramdisk是一个off heap memory。Master和Worker直接的通信协议是Thrift。
下图来自Tachyon的做者Haoyuan Li:
下载地址:https://github.com/amplab/tachyon
4、KFS
简介:GFS的C++开源版本,Kosmos distributed file system (KFS)是一个专门为数据密集型应用(搜索引擎,数据挖掘等)而设计的存储系统,相似于Google的GFS和Hadoop的HDFS分布式文件系统。 KFS使用C++实现,支持的客户端包括C++,Java和Python。KFS系统由三部分组成,分别是metaserver、chunkserver和client library。
官网:http://code.google.com/p/kosmosfs/
5、HDFS
简介:Hadoop分布式文件系统(HDFS)被设计成适合运行在通用硬件(commodity hardware)上的分布式文件系统。它和现有的分布式文件系统有不少共同点。但同时,它和其余的分布式文件系统的区别也是很明显的。HDFS是一个高度容错性的系统,适合部署在廉价的机器上。HDFS能提供高吞吐量的数据访问,很是适合大规模数据集上的应用。HDFS放宽了一部分POSIX约束,来实现流式读取文件系统数据的目的。HDFS在最开始是做为Apache Nutch搜索引擎项目的基础架构而开发的。HDFS是Apache Hadoop Core项目的一部分。
1、Twitter Mesos
开发者:Twitter研发人员John Oskasson
简介:Apache Mesos是由加州大学伯克利分校的AMPLab首先开发的一款开源群集管理软件,支持Hadoop、ElasticSearch、Spark、Storm 和Kafka等架构,因为其开源性质愈来愈受到一些大型云计算公司的青睐,例如Twitter、Facebook等。
参考文章:Mesos渐入主流,Twitter模式有望“无限复制”-CSDN.NET
2、Hadoop Yarn
Hadoop 新 MapReduce 框架 Yarn。为从根本上解决旧 MapReduce 框架的性能瓶颈,促进 Hadoop 框架的更长远发展,从 0.23.0 版本开始,Hadoop 的 MapReduce 框架彻底重构,发生了根本的变化。新的 Hadoop MapReduce 框架命名为 MapReduceV2 或者叫 Yarn,其架构图以下图所示:
Yarn 框架相对于老的 MapReduce 框架什么优点呢?咱们能够看到:
一、这个设计大大减少了 JobTracker(也就是如今的 ResourceManager)的资源消耗,而且让监测每个 Job 子任务 (tasks) 状态的程序分布式化了,更安全、更优美。
二、在新的 Yarn 中,ApplicationMaster 是一个可变动的部分,用户能够对不一样的编程模型写本身的 AppMst,让更多类型的编程模型可以跑在 Hadoop 集群中,能够参考 hadoop Yarn 官方配置模板中的 mapred-site.xml 配置。
三、对于资源的表示之内存为单位 ( 在目前版本的 Yarn 中,没有考虑 cpu 的占用 ),比以前以剩余 slot 数目更合理。
四、老的框架中,JobTracker 一个很大的负担就是监控 job 下的 tasks 的运行情况,如今,这个部分就扔给 ApplicationMaster 作了,而 ResourceManager 中有一个模块叫作 ApplicationsMasters( 注意不是 ApplicationMaster),它是监测 ApplicationMaster 的行情况,若是出问题,会将其在其余机器上重启。
五、Container 是 Yarn 为了未来做资源隔离而提出的一个框架。这一点应该借鉴了 Mesos 的工做,目前是一个框架,仅仅提供 java 虚拟机内存的隔离 ,hadoop 团队的设计思路应该后续能支持更多的资源调度和控制 , 既然资源表示成内存量,那就没有了以前的 map slot/reduce slot 分开形成集群资源闲置的尴尬状况。
第二部分将整合大数据日志收集系统、消息系统、集群管理、基础设施、监控管理等开源工具。并将于3月12日发布,尽请期待。
End.
转载请注明来自36大数据(36dsj.com):36大数据 » 一共81个,开源大数据处理工具汇总(上)