在MapReduce项目中添加spark job

直接在java并行的目录下建立scala文件,并标注为源代码目录,在test中也添加scala目录,而后添加spark相关依赖便可。java <!-- https://mvnrepository.com/artifact/org.apache.spark/spark-core --> <dependency> <groupId>org.apache.spark</groupId>
相关文章
相关标签/搜索