Spark源码分析笔记(二)Spark设计理念与基本架构

一. hadoop1.0 hadoop2.0 Spark对比 hadoop1.0贡献了三个部分: 运行时环境:任务管理者jobTracker ,任务的执行者taskTracker 编程模型:MapReduce,开发者完成Map函数和Reduce函数 数据处理引擎:Map任务,数据的过滤分类;Reduce任务,数据的汇聚 但是也有很多不足: 可扩展性差:jobTracker既负责资源管理又负责任务调
相关文章
相关标签/搜索