笔记摘抄自 [美] Holden Karau 等著的《Spark快速大数据分析》html
经过 Maven 添加 Spark-core_2.10 的依赖java
找了一篇注释比较清楚的博客代码1,一次运行经过shell
import scala.Tuple2; import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaPairRDD; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext; import org.apache.spark.api.java.function.FlatMapFunction; import org.apache.spark.api.java.function.Function2; import org.apache.spark.api.java.function.PairFunction; import java.util.Arrays; import java.util.Iterator; import java.util.List; import java.util.regex.Pattern; public final class WordCount { private static final Pattern SPACE = Pattern.compile(" "); public static void main(String[] args) throws Exception { if (args.length < 1) { System.err.println("Usage: JavaWordCount <file>"); System.exit(1); } /** * 对于全部的spark程序所言,要进行全部的操做,首先要建立一个spark上下文。 * 在建立上下文的过程当中,程序会向集群申请资源及构建相应的运行环境。 * 设置spark应用程序名称 * 建立的 sarpkContext 惟一须要的参数就是 sparkConf,它是一组 K-V 属性对。 */ SparkConf sparkConf = new SparkConf().setAppName("JavaWordCount"); JavaSparkContext ctx = new JavaSparkContext(sparkConf); /** * 利用textFile接口从文件系统中读入指定的文件,返回一个RDD实例对象。 * RDD的初始建立都是由SparkContext来负责的,将内存中的集合或者外部文件系统做为输入源。 * RDD:弹性分布式数据集,即一个 RDD 表明一个被分区的只读数据集。一个 RDD 的生成只有两种途径, * 一是来自于内存集合和外部存储系统,另外一种是经过转换操做来自于其余 RDD,好比 Map、Filter、Join,等等。 * textFile()方法可将本地文件或HDFS文件转换成RDD,读取本地文件须要各节点上都存在,或者经过网络共享该文件 *读取一行 */ JavaRDD<String> lines = ctx.textFile(args[0], 1); /** * * new FlatMapFunction<String, String>两个string分别表明输入和输出类型 * Override的call方法须要本身实现一个转换的方法,并返回一个Iterable的结构 * * flatmap属于一类很是经常使用的spark函数,简单的说做用就是将一条rdd数据使用你定义的函数给分解成多条rdd数据 * 例如,当前状态下,lines这个rdd类型的变量中,每一条数据都是一行String,咱们如今想把他拆分红1个个的词的话, * 能够这样写 : */ //flatMap与map的区别是,对每一个输入,flatMap会生成一个或多个的输出,而map只是生成单一的输出 //用空格分割各个单词,输入一行,输出多个对象,因此用flatMap JavaRDD<String> words = lines.flatMap(new FlatMapFunction<String, String>() { @Override public Iterator<String> call(String s) { return Arrays.asList(SPACE.split(s)).iterator(); } }); /** * map 键值对 ,相似于MR的map方法 * pairFunction<T,K,V>: T:输入类型;K,V:输出键值对 * 表示输入类型为T,生成的key-value对中的key类型为k,value类型为v,对本例,T=String, K=String, V=Integer(计数) * 须要重写call方法实现转换 */ JavaPairRDD<String, Integer> ones = words.mapToPair(new PairFunction<String, String, Integer>() { //scala.Tuple2<K,V> call(T t) //Tuple2为scala中的一个对象,call方法的输入参数为T,即输入一个单词s,新的Tuple2对象的key为这个单词,计数为1 @Override public Tuple2<String, Integer> call(String s) { return new Tuple2<String, Integer>(s, 1); } }); //A two-argument function that takes arguments // of type T1 and T2 and returns an R. /** * 调用reduceByKey方法,按key值进行reduce * reduceByKey方法,相似于MR的reduce * 要求被操做的数据(即下面实例中的ones)是KV键值对形式,该方法会按照key相同的进行聚合,在两两运算 * 若ones有<"one", 1>, <"one", 1>,会根据"one"将相同的pair单词个数进行统计,输入为Integer,输出也为Integer *输出<"one", 2> */ JavaPairRDD<String, Integer> counts = ones.reduceByKey(new Function2<Integer, Integer, Integer>() { //reduce阶段,key相同的value怎么处理的问题 @Override public Integer call(Integer i1, Integer i2) { return i1 + i2; } }); //备注:spark也有reduce方法,输入数据是RDD类型就能够,不须要键值对, // reduce方法会对输入进来的全部数据进行两两运算 /** * collect方法用于将spark的RDD类型转化为咱们熟知的java常见类型 */ List<Tuple2<String, Integer>> output = counts.collect(); for (Tuple2<?,?> tuple : output) { System.out.println(tuple._1() + ": " + tuple._2()); } ctx.stop(); } }
将程序打包后上传到Linuxapache
[root@server1 ~]# vi test.txt a a b a b c a b c d a b c d e
[root@server1 spark-2.4.4-bin-hadoop2.7]# pwd /root/spark-2.4.4-bin-hadoop2.7 [root@server1 spark-2.4.4-bin-hadoop2.7]# bin/spark-submit --class WordCount ~/SparkTest1.jar ~/test.txt 19/09/09 17:04:56 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties ... 19/09/09 17:04:58 INFO DAGScheduler: ResultStage 1 (collect at WordCount.java:97) finished in 0.082 s 19/09/09 17:04:58 INFO DAGScheduler: Job 0 finished: collect at WordCount.java:97, took 0.562887 s d: 2 e: 1 a: 5 b: 4 c: 3 ...
P.s. Spark 单机模式在官网下载压缩包解压进入 bin 目录下便可运行api