Apache Arrow 是 Apache 基金会全新孵化的一个顶级项目。它设计的目的在于做为一个跨平台的数据层,来加快大数据分析项目的运行速度。apache
如今大数据处理模型不少,用户在应用大数据分析时,除了将 Hadoop 等大数据平台做为一个存储和批处理平台以外,一样也得关注系统的扩展性和性能。过去开源社区已经发布了不少工具来完善大数据分析的生态系统,这些工具包含了数据分析的各个层面,例如列式存储格式(Parquet,ORC),内存计算模型(Drill,Spark,Impala 和 Storm)以及其强大的 API 接口。而 Arrow 则是最新加入的一员,它提供了一种跨平台应用的内存数据交换格式。编程
在数据快速增加和复杂化的状况下,提升大数据分析性能一个重要的途径是对列式数据的设计和处理。列式数据处理借助了向量计算和 SIMD 使咱们能够充分挖掘硬件的潜力。而 Apache Drill 其大数据查询引擎不管是在硬盘仍是内存中数据都是以列的方式存在的,而 Arrow 就是由 Drill 中的 Value Vector 这一数据格式发展而来。此外,Arrow 也支持关系型和动态数据集。缓存
Arrow 的诞生为大数据生态带来了不少可能性,有了 Arrow 做为从此标准数据交换格式,各个数据分析的系统和应用之间的交互性能够说是揭开了新的篇章。过去大部分的 CPU 周期都花在了数据的序列化与反序列化上,如今咱们则可以实现不一样系统之间数据的无缝连接。这意味着使用者在不一样系统结合时,不用在数据格式上话费过多的时间。数据结构
Arrow 的内存数据结构以下所示:编程语言
从上图中,咱们能够很清晰的看出,传统的内存数据格式,各个字段的分布是以没一行呈现,相同字段并未集中排列在一块儿。而经过 Arrow 格式化后的内存数据,能够将相同字段集中排列在一块儿。咱们能够很方便的使用 SQL 来操做数据。工具
传统的访问各个数据模型中的数据以及使用 Arrow 后的图,以下所示:oop
经过上图能够总结出如下观点:布局
而在看上述使用 Arrow 后,得出如下结论:性能
Arrow 列式数据格式以下所示:学习
persons = [{ name: 'wes', iq: 180, addresses: [ {number: 2, street 'a'}, {number: 3, street 'bb'} ] }, { name: 'joe', iq: 100, addresses: [ {number: 4, street 'ccc'}, {number: 5, street 'dddd'}, {number: 2, street 'f'} ] }]
从上述 JSON 数据格式来看,person.iq 分别是 180 和 100,以以下方式排列:
而 persons.addresses.number 的排列格式以下所示:
Apache Arrow 执行引擎,利用最新的SIMD(单输入多个数据)操做包括在模型处理器,用于分析数据处理本地向量优化。数据的列式布局也容许更好地利用 CPU 缓存,将全部与列操做相关的数据以尽量紧凑的格式放置。
Arrow 扮演着高性能的接口在各个复杂的系统中,它也支持工业化的编程语言。Java,C,C++,Python 以及从此更多的语言。
Apache Arrow 由 13 个开源项目开发者支持,包含 Calcite, Cassandra, Drill, Hadoop, HBase, Ibis, Impala, Kudu, Pandas, Parquet, Phoenix, Spark, 和 Storm。
使用 Python 来处理 Spark 或是 Drill 中的数据,以下图所示:
部分实现示例代码,以下所示:
import feather path = 'my_data.feather' feather.write_dataframe(df, path) df = feather.read_dataframe(path)
Apache Arrow 当前发布了 0.1.0 第一个版本,官方目前获取的资料的信息较少,你们能够到官方的 JIRA 上获取更多咨询信息,以及 Arrow 提供的开发者聊天室去获取更多的帮助。
这篇博客就和你们分享到这里,若是你们在研究学习的过程中有什么问题,能够加群进行讨论或发送邮件给我,我会尽我所能为您解答,与君共勉!