备忘录 | 全球100款数据工具汇总,你认识几个?

一、 Talend Open Studio前端

是第一家针对的数据集成工具市场的ETL(数据的提取Extract、传输Transform、载入Load)开源软件供应商。Talend的下载量已超过200万人次,其开源软件提供了数据整合功能。其用户包括美国国际集团(AIG)、康卡斯特、电子港湾、通用电气、三星、Ticketmaster和韦里逊等企业组织。程序员

 

二、DYSONweb

探码科技自主研发的DYSON智能分析系统,能够完整的实现大数据的采集、分析、处理。DYSON智能分析系统专业针对互联网数据抓取、处理、分析,挖掘。能够灵活迅速地抓取网页上散乱分布的信息,并经过强大的处理功能,准确挖掘出所需数据,是目前使用人数最多的网页采集工具.算法

 

三、YARNsql

一种新的Hadoop资源管理器,它是一个通用资源管理系统,可为上层应用提供统一的资源管理和调度,解决了旧MapReduce框架的性能瓶颈。它的基本思想是把资源管理和做业调度/监控的功能分割到单独的守护进程。shell

 

四、Mesos数据库

由加州大学伯克利分校的AMPLab首先开发的一款开源群集管理软件,支持Hadoop、ElasticSearch、Spark、Storm 和Kafka等架构。对数据中心而言它就像一个单一的资源池,从物理或虚拟机器中抽离了CPU,内存,存储以及其它计算资源, 很容易创建和有效运行具有容错性和弹性的分布式系统。编程

 

五、Dataleapi

由探码科技研发的一款基于Hadoop的大数据平台开发套件,RAI大数据应用平台架构。浏览器

 

六、 Ambari

做为Hadoop生态系统的一部分,提供了基于Web的直观界面,可用于配置、管理和监控Hadoop集群。目前已支持大多数Hadoop组件,包括HDFS、MapReduce、Hive、Pig、 Hbase、Zookeper、Sqoop和Hcatalog等。

 

七、ZooKeeper

一个分布式的应用程序协调服务,是Hadoop和Hbase的重要组件。它是一个为分布式应用提供一致性服务的工具,让Hadoop集群里面的节点能够彼此协调。ZooKeeper如今已经成为了 Apache的顶级项目,为分布式系统提供了高效可靠且易于使用的协同服务。

 

八、Thrift

在2007年facebook提交Apache基金会将Thrift做为一个开源项目,对于当时的facebook来讲创造thrift是为了解决facebook系统中各系统间大数据量的传输通讯以及系统之间语言环境不一样须要跨平台的特性。

 

九、Chukwa

监测大型分布式系统的一个开源数据采集系统。创建在HDFS/MapReduce框架之上并继承了Hadoop的可伸缩性和可靠性,能够收集来自大型分布式系统的数据,用于监控。它还包括灵活而强大的显示工具用于监控、分析结果。

 

十、Lustre

一个大规模的、安全可靠的、具有高可用性的集群文件系统,它是由SUN公司开发和维护的。该项目主要的目的就是开发下一代的集群文件系统,目前能够支持超过10000个节点,数以PB的数据存储量。

 

十一、HDFS

Hadoop Distributed File System,简称HDFS,是一个分布式文件系统。HDFS是一个高度容错性的系统,适合部署在廉价的机器上。HDFS能提供高吞吐量的数据访问,很是适合大规模数据集上的应用。

 

十二、GlusterFS

一个集群的文件系统,支持PB级的数据量。GlusterFS 经过RDMA和TCP/IP方式将分布到不一样服务器上的存储空间聚集成一个大的网络化并行文件系统。

 

1三、Alluxio

前身是Tachyon,是之内存为中心的分布式文件系统,拥有高性能和容错能力,可以为集群框架(如Spark、MapReduce)提供可靠的内存级速度的文件共享服务。

 

1四、Ceph

新一代开源分布式文件系统,主要目标是设计成基于POSIX的没有单点故障的分布式文件系统,提升数据的容错性并实现无缝的复制。

 

1五、PVFS

一个高性能、开源的并行文件系统,主要用于并行计算环境中的应用。PVFS特别为超大数量的客户端和服务器端所设计,它的模块化设计结构可轻松的添加新的硬件和算法支持。

 

1六、QFS

Quantcast File System (QFS) 是一个高性能、容错好、分布式的文件系统,用于开发支持 MapReduce处理或者须要顺序读写大文件的应用。

 

1七、 Logstash

一个应用程序日志、事件的传输、处理、管理和搜索的平台。能够用它来统一对应用程序日志进行收集管理,提供了Web接口用于查询和统计。

 

1八、Scribe

Scribe是Facebook开源的日志收集系统,它可以从各类日志源上收集日志,存储到一个中央存储系统(能够是NFS,分布式文件系统等)上,以便于进行集中统计分析处理。

 

1九、Flume

Cloudera提供的一个高可用的、高可靠的、分布式的海量日志采集、聚合和传输的系统。Flume支持在日志系统中定制各种数据发送方,用于收集数据。同时,Flume支持对数据进行简单处理,并写入各类数据接受方(可定制)。

 

20、RabbitMQ

一个受欢迎的消息代理系统,一般用于应用程序之间或者程序的不一样组件之间经过消息来进行集成。RabbitMQ提供可靠的应用消息发送、易于使用、支持全部主流操做系统、支持大量开发者平台。

 

2一、ActiveMQ

Apache出品,号称“最流行的,最强大”的开源消息集成模式服务器。ActiveMQ特色是速度快,支持多种跨语言的客户端和协议,其企业集成模式和许多先进的功能易于使用,是一个彻底支持JMS1.1和J2EE 1.4规范的JMS Provider实现。

 

2二、Kafka

一种高吞吐量的分布式发布订阅消息系统,它能够处理消费者规模网站中的全部动做流数据,目前已成为大数据系统在异步和分布式消息之间的最佳选择。

 

2三、Spark

一个高速、通用大数据计算处理引擎。拥有Hadoop MapReduce所具备的优势,但不一样的是Job的中间输出结果能够保存在内存中,从而再也不须要读写HDFS,所以Spark能更好地适用于数据挖掘与机器学习等须要迭代的MapReduce的算法。它能够与Hadoop和Apache Mesos一块儿使用,也能够独立使用。

 

2四、Kinesis

能够构建用于处理或分析流数据的自定义应用程序,来知足特定需求。Amazon Kinesis Streams 每小时可从数十万种来源中连续捕获和存储数TB数据,如网站点击流、财务交易、社交媒体源、IT日志和定位追踪事件。

 

2五、 Hadoop

一个开源框架,适合运行在通用硬件,支持用简单程序模型分布式处理跨集群大数据集,支持从单一服务器到上千服务器的水平scale up。Apache的Hadoop项目已几乎与大数据划上了等号,它不断壮大起来,已成为一个完整的生态系统,拥有众多开源工具面向高度扩展的分布式计算。高效、可靠、可伸缩,可以为你的数据存储项目提供所需的YARN、HDFS和基础架构,而且运行主要的大数据服务和应用程序。

 

2六、Spark Streaming

实现微批处理,目标是很方便的创建可扩展、容错的流应用,支持Java、Scala和Python,和Spark无缝集成。Spark Streaming能够读取数据HDFS,Flume,Kafka,Twitter和ZeroMQ,也能够读取自定义数据。

 

2七、Trident

是对Storm的更高一层的抽象,除了提供一套简单易用的流数据处理API以外,它以batch(一组tuples)为单位进行处理,这样一来,可使得一些处理更简单和高效。

 

2八、Flink

于今年跻身Apache顶级开源项目,与HDFS彻底兼容。Flink提供了基于Java和Scala的API,是一个高效、分布式的通用大数据分析引擎。更主要的是,Flink支持增量迭代计算,使得系统能够快速地处理数据密集型、迭代的任务。

 

2九、Samza

出自于LinkedIn,构建在Kafka之上的分布式流计算框架,是Apache顶级开源项目。可直接利用Kafka和Hadoop YARN提供容错、进程隔离以及安全、资源管理。

 

30、Storm

Storm是Twitter开源的一个相似于Hadoop的实时数据处理框架。编程模型简单,显著地下降了实时处理的难度,也是当下最人气的流计算框架之一。与其余计算框架相比,Storm最大的优势是毫秒级低延时。

 

3一、Yahoo S4 (Simple Scalable Streaming System)

是一个分布式流计算平台,具有通用、分布式、可扩展的、容错、可插拔等特色。程序员能够很容易地开发处理连续无边界数据流(continuous unbounded streams of data)的应用。它的目标是填补复杂专有系统和面向批处理开源产品之间的空白,并提供高性能计算平台来解决并发处理系统的复杂度。

 

3二、HaLoop

是一个Hadoop MapReduce框架的修改版本,其目标是为了高效支持 迭代,递归数据 分析任务,如PageRank,HITs,K-means,sssp等。

 

3三、Presto

是一个开源的分布式SQL查询引擎,适用于交互式分析查询,可对250PB以上的数据进行快速地交互式分析。Presto的设计和编写是为了解决像Facebook这样规模的商业数据仓库的交互式分析和处理速度的问题。Facebook称Presto的性能比诸如Hive和MapReduce要好上10倍有多。

 

3四、 Drill

于2012年8月份由Apache推出,让用户可使用基于SQL的查询,查询Hadoop、NoSQL数据库和云存储服务。它可以运行在上千个节点的服务器集群上,且能在几秒内处理PB级或者万亿条的数据记录。它可用于数据挖掘和即席查询,支持一系列普遍的数据库,包括HBase、MongoDB、MapR-DB、HDFS、MapR-FS、亚马逊S三、Azure Blob Storage、谷歌云存储和Swift。

 

3五、Phoenix

是一个Java中间层,可让开发者在Apache HBase上执行SQL查询。Phoenix彻底使用Java编写,而且提供了一个客户端可嵌入的JDBC驱动。Phoenix查询引擎会将SQL查询转换为一个或多个HBase scan,并编排执行以生成标准的JDBC结果集。

 

3六、Pig

是一种编程语言,它简化了Hadoop常见的工做任务。Pig可加载数据、转换数据以及存储最终结果。Pig最大的做用就是为MapReduce框架实现了一套shell脚本 ,相似咱们一般熟悉的SQL语句。

 

3七、Hive

是基于Hadoop的一个数据仓库工具,能够将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,能够将sql语句转换为MapReduce任务进行运行。 其优势是学习成本低,能够经过类SQL语句快速实现简单的MapReduce统计,没必要开发专门的MapReduce应用,十分适合数据仓库的统计分析。

 

3八、SparkSQL

前身是Shark,SparkSQL抛弃原有Shark的代码并汲取了一些优势,如内存列存储(In-Memory Columnar Storage)、Hive兼容性等。因为摆脱了对Hive的依赖性,SparkSQL不管在数据兼容、性能优化、组件扩展方面都获得了极大的方便。

 

3九、Stinger

原来叫Tez,是下一代Hive,由Hortonworks主导开发,运行在YARN上的DAG计算框架。某些测试下,Stinger能提高10倍左右的性能,同时会让Hive支持更多的SQL。

 

40、Tajo

目的是在HDFS之上构建一个可靠的、支持关系型数据的分布式数据仓库系统,它的重点是提供低延迟、可扩展的ad-hoc查询和在线数据汇集,以及为更传统的ETL提供工具。

 

4一、Impala

Cloudera 声称,基于SQL的Impala数据库是“面向Apache Hadoop的领先的开源分析数据库”。它能够做为一款独立产品来下载,又是Cloudera的商业大数据产品的一部分。Cloudera Impala 能够直接为存储在HDFS或HBase中的Hadoop数据提供快速、交互式的SQL查询。

 

4二、 Elasticsearch

是一个基于Lucene的搜索服务器。它提供了一个分布式、支持多用户的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java开发的,并做为Apache许可条款下的开放源码发布,是当前流行的企业级搜索引擎。设计用于云计算中,可以达到实时搜索、稳定、可靠、快速、安装使用方便。

 

4三、Solr

基于Apache Lucene,是一种高度可靠、高度扩展的企业搜索平台。知名用户包括eHarmony、西尔斯、StubHub、Zappos、百思买、AT&T、Instagram、Netflix、彭博社和Travelocity。

 

4四、Shark

即Hive on Spark,本质上是经过Hive的HQL解析,把HQL翻译成Spark上的RDD操做,而后经过Hive的metadata获取数据库里的表信息,实际HDFS上的数据和文件,会由Shark获取并放到Spark上运算。Shark的特色就是快,彻底兼容Hive,且能够在shell模式下使用rdd2sql()这样的API,把HQL获得的结果集,继续在scala环境下运算,支持本身编写简单的机器学习或简单分析处理函数,对HQL结果进一步分析计算。

 

4五、Lucene

基于Java的Lucene能够很是迅速地执行全文搜索。据官方网站声称,它在现代硬件上每小时可以检索超过150GB的数据,它拥有强大而高效的搜索算法。

 

4六、Terracotta

声称其BigMemory技术是“世界上数一数二的内存中数据管理平台”,支持简单、可扩展、实时消息,声称在190个国家拥有210万开发人员,全球1000家企业部署了其软件。

 

4七、 Ignite

是一种高性能、整合式、分布式的内存中平台,可用于对大规模数据集执行实时计算和处理,速度比传统的基于磁盘的技术或闪存技术高出好几个数量级。该平台包括数据网格、计算网格、服务网格、流媒体、Hadoop加速、高级集群、文件系统、消息传递、事件和数据结构等功能。

 

4八、GemFire

Pivotal宣布它将开放其大数据套件关键组件的源代码,其中包括GemFire内存中NoSQL数据库。它已向Apache软件基金会递交了一项提案,以便在“Geode”的名下管理GemFire数据库的核心引擎。

 

4九、 GridGain

由Apache Ignite驱动的GridGrain提供内存中数据结构,用于迅速处理大数据,还提供基于同一技术的Hadoop加速器。

 

查看更多精彩内容?关注公众号:geekdriver(极客脑司机订阅号),咱们后续还会发布技术分享文章,你们持续关注哦~新智云 www.enncloud.cn

 

50、MongoDB

是一个基于分布式文件存储的数据库。由C++语言编写。旨在为web应用提供可扩展的高性能数据存储解决方案。介于关系数据库和非关系数据库之间的开源产品,是非关系数据库当中功能最丰富、最像关系数据库的产品。

 

5一、Redis

是一个高性能的key-value存储系统,和Memcached相似,它支持存储的value类型相对更多,包括string(字符串)、list(链表)、set(集合)和zset(有序集合)。Redis的出现,很大程度补偿了memcached这类key/value存储的不足,在部分场合能够对关系数据库起到很好的补充做用。

 

5二、HDFS

Hadoop分布式文件系统(HDFS)被设计成适合运行在通用硬件(commodity hardware)上的分布式文件系统。它和现有的分布式文件系统有不少共同点。HDFS是一个高度容错性的系统,适合部署在廉价的机器上。HDFS能提供高吞吐量的数据访问,很是适合大规模数据集上的应用。

 

5三、HBase

是Hadoop的数据库,一个分布式、可扩展、大数据的存储。是为有数十亿行和数百万列的超大表设计的,是一种分布式数据库,能够对大数据进行随机性的实时读取/写入访问。提供相似谷歌Bigtable的存储能力,基于Hadoop和Hadoop分布式文件系统(HDFS)而建。

 

5四、Neo4j

是一个高性能的,NOSQL图形数据库,它将结构化数据存储在网络上而不是表中。自称“世界上第一个和最好的图形数据库”,“速度最快、扩展性最佳的原生图形数据库”,“最大和最有活力的社区”。用户包括Telenor、Wazoku、ebay、必能宝(Pitney Bowes)、MigRaven、思乐(Schleich)和Glowbl等。

 

5五、 Vertica

基于列存储高性能和高可用性设计的数据库方案,因为对大规模并行处理(MPP)技术的支持,提供细粒度、可伸缩性和可用性的优点。每一个节点彻底独立运做,彻底无共享架构,下降了共享资源的系统竞争。

 

5六、Cassandra

是一个混合型的非关系的数据库,相似于Google的BigTable,其主要功能比Dynamo (分布式的Key-Value存储系统)更丰富。这种NoSQL数据库最初由Facebook开发,现已被1500多家企业组织使用,包括苹果、欧洲原子核研究组织(CERN)、康卡斯特、电子港湾、GitHub、GoDaddy、Hulu、Instagram、Intuit、Netfilx、Reddit及其余机构。

 

5七、CouchDB

号称是“一款彻底拥抱互联网的数据库”,它将数据存储在JSON文档中,这种文档能够经过Web浏览器来查询,而且用JavaScript来处理。它易于使用,在分布式上网络上具备高可用性和高扩展性。

 

5八、Dynamo

是一个经典的分布式Key-Value 存储系统,具有去中心化、高可用性、高扩展性的特色。Dynamo在Amazon中获得了成功的应用,可以跨数据中心部署于上万个结点上提供服务,它的设计思想也被后续的许多分布式系统借鉴。

 

5九、 Amazon SimpleDB

是一个用Erlang编写的高可用的NoSQL数据存储,可以减轻数据库管理工做。开发人员只需经过Web服务请求执行数据项的存储和查询,Amazon SimpleDB 将负责余下的工做。做为一项Web 服务,像Amazon的EC2和S3同样,是Amazon网络服务的一部分。

 

60、 Hypertable

是一个开源、高性能、可伸缩的数据库,它采用与Google的Bigtable类似的模型。它与Hadoop兼容,性能超高,其用户包括电子港湾、百度、高朋、Yelp及另外许多互联网公司。

 

6一、Kettle

这是一个ETL工具集,它容许你管理来自不一样数据库的数据,经过提供一个图形化的用户环境来描述你想作什么,而不是你想怎么作。做为Pentaho的一个重要组成部分,如今在国内项目应用上逐渐增多。

 

6二、 Kylin

是一个开源的分布式分析引擎,提供了基于Hadoop的超大型数据集(TB/PB级别)的SQL接口以及多维度的OLAP分布式联机分析。最初由eBay开发并贡献至开源社区。它能在亚秒内查询巨大的Hive表。

 

6三、 Kibana

是一个使用Apache 开源协议的Elasticsearch 分析和搜索仪表板,可做为Logstash和ElasticSearch日志分析的 Web 接口,对日志进行高效的搜索、可视化、分析等各类操做。

 

6四、 Druid

是一个用于大数据实时查询和分析的高容错、高性能、分布式的开源系统,旨在快速处理大规模的数据,并可以实现快速查询和分析。

 

6五、 KNIME

全称是“康斯坦茨信息挖掘工具”(Konstanz Information Miner),是一个开源分析和报表平台。宣称“是任何数据科学家完美的工具箱,超过1000个模块,可运行数百个实例,全面的集成工具,以及先进的算法”。

 

6六、Zeppelin

是一个提供交互数据分析且基于Web的笔记本。方便你作出可数据驱动的、可交互且可协做的精美文档,而且支持多种语言,包括 Scala(使用 Apache Spark)、Python(Apache Spark)、SparkSQL、 Hive、 Markdown、Shell等。

 

6七、Azkaban

一款基于Java编写的任务调度系统任务调度,来自LinkedIn公司,用于管理他们的Hadoop批处理工做流。Azkaban根据工做的依赖性进行排序,提供友好的Web用户界面来维护和跟踪用户的工做流程。

 

6八、 Splunk

是机器数据的引擎。使用 Splunk 可收集、索引和利用全部应用程序、服务器和设备(物理、虚拟和云中)生成的快速移动型计算机数据,从一个位置搜索并分析全部实时和历史数据

 

6九、Pentaho

是世界上最流行的开源商务智能软件,以工做流为核心的、强调面向解决方案而非工具组件的、基于Java平台的商业智能(Business Intelligence)套件。包括一个web server平台和几个工具软件:报表、分析、图表、数据集成、数据挖掘等,能够说包括了商务智能的方方面面。

 

70、Jaspersoft

提供了灵活、可嵌入的商业智能工具,用户包括众多企业组织:高朋、冠群科技、美国农业部、爱立信、时代华纳有线电视、奥林匹克钢铁、内斯拉斯加大学和通用动力公司。

 

7一、 SpagoBI

Spago被市场分析师们称为“开源领袖”,它提供商业智能、中间件和质量保证软件,另外还提供相应的Java EE应用程序开发框架。

 

7二、Lumify

归Altamira科技公司(以国家安全技术而闻名)全部,这是一种开源大数据整合、分析和可视化平台。

 

7三、Lingual

是Cascading的高级扩展,为Hadoop提供了一个ANSI SQL接口极大地简化了应用程序的开发和集成。Lingual实现了链接现有的商业智能(BI)工具,优化了计算成本,加快了基于Hadoop的应用开发速度。

 

7四、Beam

基于Java提供了统一的数据进程管道开发,而且可以很好地支持Spark和Flink。提供不少在线框架,开发者无需学太多框架。

 

7五、Cascading

是一个基于Hadoop创建的API,用来建立复杂和容错数据处理工做流。它抽象了集群拓扑结构和配置,使得不用考虑背后的MapReduce,就能快速开发复杂的分布式应用。

 

7六、HPCC

做为Hadoop以外的一种选择,是一个利用集群服务器进行大数据分析的系统,HPCC在LexisNexis内部使用多年,是一个成熟可靠的系统,包含一系列的工具、一个称为ECL的高级编程语言、以及相关的数据仓库,扩展性超强。

 

7七、Hivemall

结合了面向Hive的多种机器学习算法,它包括了不少扩展性很好的算法,可用于数据分类、递归、推荐、k最近邻、异常检测和特征哈希等方面的分析应用。

 

7八、 RapidMiner

具备丰富数据挖掘分析和算法功能,经常使用于解决各类的商业关键问题,解决方案覆盖了各个领域,包括汽车、银行、保险、生命科学、制造业、石油和自然气、零售业及快消行业、通信业、以及公用事业等各个行业。

 

7九、 Mahout

目的是“为快速建立可扩展、高性能的机器学习应用程序而打造一个环境”,主要特色是为可伸缩的算法提供可扩展环境、面向Scala/Spark/H2O/Flink的新颖算法、Samsara(相似R的矢量数学环境),它还包括了用于在MapReduce上进行数据挖掘的众多算法。

 

80、Tableau

Tableau 是一款企业级的大数据可视化工具。Tableau 可让你轻松建立图形,表格和地图。 它不只提供了PC桌面版,还提供了服务器解决方案,可让您在线生成可视化报告。服务器解决方案能够提供了云托管服务。Tableau的客户包括巴克莱银行,Pandora和Citrix等企业

 

8一、Infogram

Infogram的最大优点在于,让您的可视化信息图表与实时大数据相连接。只须三个简单步骤,您能够选择在众多图表,地图,甚至是视频可视化模板中进行选择。 Infogram支持团队帐号。

 

8二、ChartBlocks

ChartBlocks是一个易于使用在线工具,它无需编码,便能从电子表格,数据库中构建可视化图表。整个过程能够在图表向导的指导下完成。您的图表将在HTML5的框架下使用强大的Java库D3.js建立图表。你的图表是响应式的,而且能够和任何的屏幕尺寸及设备兼容。 您还能够将图表嵌入任何网页中,分享在Twitter和Facebook上。

 

8三、Datawrapper

Datawrapper是一款专一于新闻和出版的可视化工具。华盛顿邮报,卫报,华尔街日报和Twitter等媒体都使用了这一工具。Datawrapper很是容易使用,不须要任何编程基础。你只须要上传你的数据,便能轻松地建立和发布图表,甚至是地图。Datawrapper提供了众多的自定义布局及地图模板。

 

8四、Plotly

Plotly帮助你在短短几分钟内,从简单的电子表格中开始建立漂亮的图表。Plotly已经为谷歌、美国空军和纽约大学等机构所使用。 Plotly是一个很是人性化的网络工具,让你在几分钟内启动。若是你的团队但愿为JavaScript和Python等编程语言提供一个API接口的话,Plotly是一款很是人性化的工具。

 

8五、RAW

RAW弥补了不少工具在电子表格和矢量图形(SVG)之间的缺失环节。你的大数据能够来自MicrosoftExcel中,谷歌文档或是一个简单的逗号分隔的列表。它最厉害的功能是能够很容易地导出可视化结果,由于它和Adobe Illustrator,Sketch 和Inkscape是相容的。

 

8六、Visual.ly

isual.ly是一个可视化的内容服务。它提供专门的大数据可视化的服务,用户包括了VISA,耐克,Twitter,福特和国家地理等。若是你想彻底外包可视化文件给第三方。你可使用很是简化的在线流程:你只需描述你的项目,服务团队将在项目的整个持续时间内和你在一块儿。 Visual.ly给您发送全部项目关键点的邮件通知,也将让你不断给出反馈。

 

8七、D3.js

毋容置疑D3.js是最好的数据可视化工具库。D3.js运行在JavaScript上,并使用HTML,CSS和SVG。 D3.js是开源工具,使用数据驱动的方式建立漂亮的网页。 D3.js可实现实时交互。这个库很是强大和前沿,因此它带有没有预置图表也不支持IE9。

 

8八、Ember Charts

Ember Charts – 顾名思义是一种基于Ember.js框架和使用d3.js的可视化工具。Ember Charts以绘制时间序列图,柱状图,饼图和散点图为主。它很是优易于扩展。同为Ember.js开发团队,Ember Charts聚焦于图形互动性。它有极强的错误处理能力,当你遇到坏数据时,系统也不会崩溃

 

8九、NVD3

NVD3运行在d3.js之上, 它可创建可重用的图表组件。该项目的目标是保持全部的图表整洁和可定制性。 NVD3是d3.js之上的简单的接口,保持了d3.js的全部强大功能。 NVD3由Novus Partners前端工程师开发和使其保持了图表技术洞察力。

 

90、Google Charts

Google Charts 以HTML5和SVG为基础,充分考虑了跨浏览器的兼容性,并经过VML支持旧版本的IE浏览器。全部您将建立的图表是交互式的,有的还可缩放。Google Charts是很是人性化和他们的网站拥有一个很是好的,全面的模板库,你能够从中找到所需模板。

 

9一、FusionCharts

FusionCharts是最全面的JavaScript图表库,包括90个图表和900种地图。若是你不是特别喜欢的JavaScript。FusionCharts能够轻松集成像jQuery库,Angularjs和React框架以及ASP.NET和PHP语言。 FusionCharts支持JSON和XML数据,并提供许多格式图表:PNG,JPEG,SVG和PDF。

 

9二、Highcharts

Highcharts是一个JavaScript API与jQuery的集成,全球最大的100家公司中有61家正在使用它。图表使用SVG格式,并使用VML支持旧版浏览器。它提供了两个专门的图表类型:Highstock和Highmaps,而且还配备了一系列的插件。你能够无偿使用它,而若是你想创建付费的应用,只须支付少许牌照费用。此外,你还可使用Highcharts云服务。

 

9三、Chart.js

对于一个小项目的图表,chart.js是一个很好的选择。开源,只有11KB大小,这使得它快速且易于使用,它支持多种图表类型: 饼图,线性图和雷达图等。

 

9四、Leaflet

你是否专一于专业的大数据解决方案?无需饼图和条形图?Leafleft 基于Open Street Map数据,使用HTML5 / CSS3绘制互动式可视化图。您可使用他们的扩展插件库添加热点图(heatmaps)和动画标记。 Leaflet 是开源和只有33 KB大小。

 

9五、Chartist.js

Chartist.js的开发社区一直致力于战胜全部其余JavaScript图表库。它使用了Sass的个性化风格,它的SVG输出是响应式的。

 

9六、n3-charts

N3-charts是一种基于AngularJS框架的工具。它创建在D3.js之上,帮助您建立简单的互动图表。 N3-charts是一种小型化的图表工具,不适用于大型项目。

 

9七、 Sigma JS

Sigma JS 是交互式可视化工具库。因为使用了WebGL技术,你可使用鼠标和触摸的方式来更新和变换图表。Sigma JS同时支持JSON和GEXF两种数据格式。这为它提供了大量的可用互动式插件。Sigma JS 专一于网页格式的网络图可视化。所以它在大数据网络可视化中很是有用。

 

9八、Polymaps

Polymaps是一款地图可视化一个JavaScript工具库。 Polymaps使用SVG实现从国家到街道一级地理数据的可视化。您可使用CSS格式来修改你的样式。Polymaps使用GeoJSON来解释地理数据。它是建立heatmap热点图的最好的工具之一。您建立的全部地图均可以变成动态图。

 

9九、Processing.js

Processing.js是一个基于可视化编程语言的JavaScript库。做为一种面向Web的JavaScript库,Processing.js是您可以有效进行网页格式图表处理。这使得它成为了一种很是好交换式可视化工具。 Processing.js须要一个兼容HTML5的浏览器来实现这一功能。

 

100、Pentaho BI

Pentaho BI 平台不一样于传统的BI 产品,它是一个以流程为中心的,面向解决方案(Solution)的框架。其目的在于将一系列企业级BI产品、开源软件、API等等组件集成起来,方便商务智能应用的开发。它的出现,使得一系列的面向商务智能的独立产品如Jfree、Quartz等等,可以集成在一块儿,构成一项项复杂的、完整的商务智能解决方案。

相关文章
相关标签/搜索