Spark用IntelliJ + maven打jar包上传到Spark集群上运行

因为需要用Hadoop的HDFS所以要启动Hadoop 1.启动Hadoop 2.启动Spark集群 3.打开IntelliJ 创建maven项目 然后配置maven项目的pom.xml文件 内容如下 <properties> <maven.compiler.source>1.8</maven.compiler.source> <maven.compiler.target>1.8</maven
相关文章
相关标签/搜索