spark 和hadoop的 hdfs 整合(spark sql 找不到文件)

初学spark 的时候在 spark shell窗口类里面操做如下代码对hdfs 的文件进行操做的时候会出现找不到文件的错误shell val lineRDD= sc.textFile("/person.txt").map(_.split(" "))oop 【此处不配图了】spa 缘由是spark 没有配置hadoop 相关的参数。hadoop 在spark-env.sh 中添加HADOOP_CO
相关文章
相关标签/搜索