大数据的两个主要框架 Hadoop 和 Spark

Hadoop (MapReduce) :分布式计算框架(批量处理计算框架) Spark :内存计算框架(实时计算框架,内存计算框架,流式计算框架)         Spark是通用分布式数据处理引擎,适用于多种情况。在Spark核心数据处理引擎之上,还有用于SQL,机器学习,图形计算和流处理的库,它们可以在应用程序中一起使用。 Spark支持的编程语言包括:Java,Python,Scala和R。
相关文章
相关标签/搜索