Spark概述

目录 一、Spark的产生背景 二、什么是Spark 三、Spark的特点 四、Spark重要版本的发布(待完善) 一、Spark的产生背景 1)MapReduce的局限性 计算性能不是很好,MR的Task都是进程级别的,运行在JVM中,JVM的启动和销毁会消耗比较多资源 不适合交互式/多迭代计算,因为中间数据落地次数较多,会产生较多的磁盘IO、序列化、网络IO频繁 不适合流式处理 编程繁琐,要实
相关文章
相关标签/搜索