Mac 下使用Spark不能加载本地Hadoop库问题解决

在Mac上安装测试Spark时,在执行一个Job(用Python调用)时出现如下错误:java Setting default log level to "WARN". To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). 17/11/22 11:01:22 WARN
相关文章
相关标签/搜索