Spark入门

Spark:算法

 1、历史网络

         一、诞生于2009年,加州大学伯克利分校RAD实验室的一个研究项目,最初是基于Hadoop MapReduce的,发现MapReduce在迭代式计算和交互式上低效,引入内存存储机器学习

         二、2010年3月份Spark开源分布式

         三、2011年在AMP实验室开发出高级组件,像Spark Streaming工具

         四、2013年成为Apache顶级项目oop

 

2、特色学习

         一、快速的(Spark扩充了流行的MapReduce计算模型,Spark是基于内存的计算)测试

         二、通用的(Spark的设计容纳了其余分布式系统拥有的功能(下降维护成本),批处理(hadoop)、迭代式计算(机器学习)、交互查询(hive)和流处理(storm))大数据

         三、高度开放(Spark提供了Python、Java、Scala、SQL的API和丰富的内置库,和其余的大数据工具整合的很好,包括hadoop、kafka等)优化

 

3、紧密集成的优势

         Spark是紧密集成的,优化了Spark底层,基于Spark底层的组件,也获得了相应的优化

         紧密集成,节省了各个组件的使用时的部署、测试时间

         向Spark增长新的组件时,其余组件,可当即享用新组件的功能

 

4、组件

         一、Spark Core

                   包含Spark基本功能,包含任务调度、内存管理、容错机制等

                   内部定义了RDDs(弹性分布式数据集)

                   提供了不少APIs来建立和操做RDDs

                   应用场景,为其余组件提供底层的服务

         二、Spark SQL

                   是处理结构化数据的库,像Hive Sql、MySQL同样

                   应用场景,企业中用来作报表统计

         三、Spark Streaming

                   是实时数据流处理组件,相似Storm

                   Spark Streaming提供API来操做实时流数据

                   应用场景,企业中用来从kafka接收数据作实时统计

         四、Mlib

                   一个包含通用机器学习功能的包,Machine learning lib

                   包含分类、聚类、回归等,还包括模型评估,和数据导入

                   MLib提供的上面的这些方法,都支持集群上的横向扩展(以前机器学习大多用Python,缺点就是单机的,不能作集群)

                   应用场景,机器学习

         五、Graphx

                   是处理图的库(例如,社交网络图),并进行图的并行运算

                   像Spark Streaming,Spark SQL同样,它也继承了RDD API

                   它提供了各类图的操做,和经常使用的图算法,例如PangRank算法

                   应用场景,图计算

         六、Cluster Managers

                   就是集群管理,Spark自带一个集群管理的单独调度器

                   常见的集群管理包括Hadoop YARN、Apache Mesos

相关文章
相关标签/搜索