一 、Spark概述
官网:http://spark.apache.orgjava
Spark是一种快速、通用、可扩展的大数据分析引擎,2009年诞生于加州大学伯克利分校AMPLab,2010年开源,2013年6月成为Apache孵化项目,2014年2月成为Apache顶级项目。项目是用Scala进行编写。node
目前,Spark生态系统已经发展成为一个包含多个子项目的集合,其中包含SparkSQL、Spark Streaming、GraphX、MLib、SparkR等子项目,Spark是基于内存计算的大数据并行计算框架。除了扩展了普遍使用的 MapReduce 计算模型,并且高效地支持更多计算模式,包括交互式查询和流处理。Spark 适用于各类各样原先须要多种不一样的分布式平台的场景,包括批处理、迭代算法、交互式查询、流处理。经过在一个统一的框架下支持这些不一样的计算,Spark 使咱们能够简单而低耗地把各类处理流程整合在一块儿。而这样的组合,在实际的数据分析 过程当中是颇有意义的。不只如此,Spark 的这种特性还大大减轻了原先须要对各类平台分 别管理的负担。linux
大一统的软件栈,各个组件关系密切而且能够相互调用,这种设计有几个好处:一、软件栈中全部的程序库和高级组件 均可以从下层的改进中获益。二、运行整个软件栈的代价变小了。不须要运 行 5 到 10 套独立的软件系统了,一个机构只须要运行一套软件系统便可。系统的部署、维护、测试、支持等大大缩减。三、可以构建出无缝整合不一样处理模型的应用。算法
Spark的内置项目以下:shell
Spark Core:实现了 Spark 的基本功能,包含任务调度、内存管理、错误恢复、与存储系统 交互等模块。Spark Core 中还包含了对弹性分布式数据集(resilient distributed dataset,简称RDD)的 API 定义。apache
Spark SQL:是 Spark 用来操做结构化数据的程序包。经过 Spark SQL,咱们可使用 SQL 或者 Apache Hive 版本的 SQL 方言(HQL)来查询数据。Spark SQL 支持多种数据源,比 如 Hive 表、Parquet 以及 JSON 等。编程
Spark Streaming:是 Spark 提供的对实时数据进行流式计算的组件。提供了用来操做数据流的 API,而且与 Spark Core 中的 RDD API 高度对应。vim
Spark MLlib:提供常见的机器学习(ML)功能的程序库。包括分类、回归、聚类、协同过滤等,还提供了模型评估、数据 导入等额外的支持功能。浏览器
集群管理器:Spark 设计为能够高效地在一个计算节点到数千个计算节点之间伸缩计 算。为了实现这样的要求,同时得到最大灵活性,Spark 支持在各类集群管理器(cluster manager)上运行,包括 Hadoop YARN、Apache Mesos,以及 Spark 自带的一个简易调度 器,叫做独立调度器。框架
Spark获得了众多大数据公司的支持,这些公司包括Hortonworks、IBM、Intel、Cloudera、MapR、Pivotal、百度、阿里、腾讯、京东、携程、优酷土豆。当前百度的Spark已应用于凤巢、大搜索、直达号、百度大数据等业务;阿里利用GraphX构建了大规模的图计算和图挖掘系统,实现了不少生产系统的推荐算法;腾讯Spark集群达到8000台的规模,是当前已知的世界上最大的Spark集群。
快:
与Hadoop的MapReduce相比,Spark基于内存的运算要快100倍以上,基于硬盘的运算也要快10倍以上。Spark实现了高效的DAG执行引擎,能够经过基于内存来高效处理数据流。计算的中间结果是存在于内存中的。
易用:
Spark支持Java、Python和Scala的API,还支持超过80种高级算法,使用户能够快速构建不一样的应用。并且Spark支持交互式的Python和Scala的shell,能够很是方便地在这些shell中使用Spark集群来验证解决问题的方法。
通用:
Spark提供了统一的解决方案。Spark能够用于批处理、交互式查询(Spark SQL)、实时流处理(Spark Streaming)、机器学习(Spark MLlib)和图计算(GraphX)。这些不一样类型的处理均可以在同一个应用中无缝使用。Spark统一的解决方案很是具备吸引力,毕竟任何公司都想用统一的平台去处理遇到的问题,减小开发和维护的人力成本和部署平台的物力成本。
兼容性:
Spark能够很是方便地与其余的开源产品进行融合。好比,Spark可使用Hadoop的YARN和Apache Mesos做为它的资源管理和调度器,器,而且能够处理全部Hadoop支持的数据,包括HDFS、HBase和Cassandra等。这对于已经部署Hadoop集群的用户特别重要,由于不须要作任何数据迁移就可使用Spark的强大处理能力。Spark也能够不依赖于第三方的资源管理和调度器,它实现了Standalone做为其内置的资源管理和调度框架,这样进一步下降了Spark的使用门槛,使得全部人均可以很是容易地部署和使用Spark。此外,Spark还提供了在EC2上部署Standalone的Spark集群的工具。
咱们大体把Spark的用例分为两类:数据科学应用和数据处理应用。也就对应的有两种人群:数据科学家和工程师。
数据科学任务:
主要是数据分析领域,数据科学家要负责分析数据并建模,具有 SQL、统计、预测建模(机器学习)等方面的经验,以及必定的使用 Python、 Matlab 或 R 语言进行编程的能力。
数据处理应用:
工程师定义为使用 Spark 开发 生产环境中的数据处理应用的软件开发者,经过对接Spark的API实现对处理的处理和转换等任务。
两种部署方式:
第一种:Standalone
1.解压
$ tar -zxf ~/softwares/installtions/spark-2.1.1-bin-hadoop2.7.tgz -C ~/modules/
2.修改配置文件,将全部以template结尾的文件拓展名去掉
cd /home/admin/modules/spark-2.1.1-bin-hadoop2.7/conf
vim salves linux01 linux02 linux03
vim spark-defaults.conf 配置历史服务 spark.eventLog.enabled true spark.eventLog.dir hdfs://linux01:8020/directory spark.eventLog.compress true
vim spark-env.sh SPARK_MASTER_HOST=linux01 SPARK_MASTER_PORT=7077 export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=4000 -Dspark.history.retainedApplications=3 -Dspark.history.fs.logDirectory=hdfs://linux01:8020/directory"
3.到hdfs中建立directory目录
$ cd ~/modules/hadoop-2.7.2/ $ bin/hdfs dfs -mkdir /directory
4.分发配置完成的Spark
$ scp -r ~/modules/spark-2.1.1-bin-hadoop2.7/ linux02:/home/admin/modules/ $ scp -r ~/modules/spark-2.1.1-bin-hadoop2.7/ linux03:/home/admin/modules/
1.修改配置
$ vim /home/admin/modules/hadoop-2.7.2/etc/hadoop/yarn-site.xml
添加下面配置
<!--是否启动一个线程检查每一个任务正使用的物理内存量,若是任务超出分配值,则直接将其杀掉,默认是true --> <property> <name>yarn.nodemanager.pmem-check-enabled</name> <value>false</value> </property> <!--是否启动一个线程检查每一个任务正使用的虚拟内存量,若是任务超出分配值,则直接将其杀掉,默认是true --> <property> <name>yarn.nodemanager.vmem-check-enabled</name> <value>false</value> </property>
2.分发配置
$ scp -r /home/admin/modules/hadoop-2.7.2/etc linux02:/home/admin/modules/hadoop-2.7.2/ $ scp -r /home/admin/modules/hadoop-2.7.2/etc linux03:/home/admin/modules/hadoop-2.7.2/
3.重启整个集群
$ sh /home/admin/tools/stop-cluster.sh $ sh /home/admin/tools/start-cluster.sh
4.修改spark-evn.sh
vim /home/admin/modules/spark-2.1.1-bin-hadoop2.7/conf/spark-env.sh HADOOP_CONF_DIR=/home/admin/modules/hadoop-2.7.2/etc/hadoop YARN_CONF_DIR=/home/admin/modules/hadoop-2.7.2/etc/hadoop
5.分发spark-evn.sh
$ scp -r ~/modules/spark-2.1.1-bin-hadoop2.7/ linux02:/home/admin/modules/ $ scp -r ~/modules/spark-2.1.1-bin-hadoop2.7/ linux03:/home/admin/modules/
6.重启spark
$ sbin/stop-all.sh $ sbin/start-all.sh
7.启动Spark历史日志服务
$ sbin/start-history-server.sh
8.所有完成后确认,访问浏览器http://linux01:8080/
1.Spark-shell
$ bin/spark-shell \ --master spark://linux01:7077 \ --executor-memory 2g \ --total-executor-cores 2
2.Standalone提交jar包(任务:是一个使用蒙特卡洛算法,求圆周率)
$ /home/admin/modules/spark-2.1.1-bin-hadoop2.7/bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master spark://linux01:7077 \ --executor-memory 1G \ --total-executor-cores 2 \ /home/admin/modules/spark-2.1.1-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.1.1.jar \ 100
3.Local模式运行
$ /home/admin/modules/spark-2.1.1-bin-hadoop2.7/bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master local[*] \ --executor-memory 1G \ --total-executor-cores 2 \ /home/admin/modules/spark-2.1.1-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.1.1.jar \ 100
4.YARN模式运行
$ /home/admin/modules/spark-2.1.1-bin-hadoop2.7/bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master yarn \ --deploy-mode client \ /home/admin/modules/spark-2.1.1-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.1.1.jar \ 100