启动spark-shell遇到的一些问题

执行: spark-shellshell 一、报When running with master 'yarn' either HADOOP_CONF_DIR or YARN_CONF_DIR must be set in th environmwntapache 缘由是没有配置以前在/etc/profile下配置了hadoop的环境变量,可是没有配置HADOOP_CONF_DIRvim 解决办法:
相关文章
相关标签/搜索