JavaSpark在本地运行

本地运行spark主要用于做测试和debug,在文件中抽取少量数据,用来测试 在hdfs上查找文件,输出文件需要的参数//System.setProperty("HADOOP_USER_NAME","root"); 在本地运行需要的参数//SparkConf conf = new SparkConf().setAppName("LambdaWordCount2").setMaster("local
相关文章
相关标签/搜索