Hadoop大数据应用生态圈中最主要的组件及其关系

Hadoop Common Hadoop Common是在Hadoop0.2版本以后分离出来的HDFS和MapReduce独立子项目的内容,是Hadoop的核心部分,能为其余模块提供一些经常使用工具集,如序列化机制、Hadoop抽象文件系统FileSystem、系统配置工具Configuration,而且在为其平台上的软件开发提供KPI等。其余Hadoop子项目都是以此为基础而创建来的。web H
相关文章
相关标签/搜索