Spark数据分析概念入门

原文地址:框架

http://blog.52sox.com/Spark-d...

在大数据的时代,数据的各类术语层出不穷,好比数据仓库、数据湖,还有比较热门的Hadoop、Spark,让人眼花缭乱。在这里,咱们主要介绍的是Spark,从宏观的角度来介绍Spark究竟是什么。
咱们将解决以下几个简单的问题:机器学习

  • Spark是什么
  • Spark的组成
  • Spark的用户和用途

下面咱们分别进行叙述。分布式

Spark是什么

首先,咱们开始第1个简单的问题,Spark是什么?
Spark是什么,Spark是1个用来实现快速通用的集群计算的平台。
在速度方面,Spark扩展了普遍使用的MapReduce计算模型,高效地支持更多计算模型,包括交互式查询和流处理,并可以在内存中进行计算。
总的来讲,Spark适用于各类各样原先须要在多种不一样的分布式平台下的场景,包括批处理、交互式查询、流处理。并经过1个统一的框架支持这些不一样的计算,大大减轻了原先须要对各类平台分别管理的负担。
另外,Spark还提供了丰富的接口(支持Python、Java、Scala)和程序库外,还能与其余大数据工具密切配合使用,例如运行在Hadoop集群上。工具

Spark的组成

Spark项目包含多个紧密集成的组件,其核心是1个能够对不少计算任务、多个工做机器或计算集群上的应用进行调度、分发以及监控的计算引擎。
其各个组件主要包括:oop

  • Spark Core,Spark的基本功能,包括任务调度、内存管理、错误恢复与存储系统交互等模块,另外还有RDD(对弹性分布式数据集,resilient distributed dataset)的API定义
  • Spark SQL,Spark操做结构化的程序包,用于数据的查询
  • Spark Streaming,提供对实时数据进行流式计算的组件
  • MLib,提供常见机器学习功能的程序库
  • GraphX,进行并行图计算的程序库
  • 集群管理器,提供Hadoop YARN,Apache Mesos的支持

Spark的用户和用途

Spark主要面向两大目标人群:性能

  • 数据科学家
  • 工程师

能够用于如下两方面:学习

  • 数据科学,更多的主要是数据分析领域,例如统计、机器学习建模、数据转换
  • 数据处理,经过丰富的接口来快速实现常见的任务以及应用的监视、审查和性能调优

参考书籍:大数据

《Learning Spark:Lightning-fast Data Analysis》P1-6
相关文章
相关标签/搜索