Spark初识

1.Spark的背景、定义、特点 背景 oMapReduce框架局限性 仅支持Map和Reduce两种操作,提供给用户的只有这两种操作 编程复杂度略高,学习和使用成本略高。 处理效率低效 Map中间结果写磁盘,Reduce写HDFS,多个MR之间通过HDFS交换数据 任务调度和启动开销大 在机器学习、图计算等方面支持有限,性能效率表现比较差。 mapreduce的机器学习框架,称为
相关文章
相关标签/搜索