spark启动顺序-笔记

1:hadoop的sbin下的dsf数据管理系统//验证http://192.168.190.134:50070/(主hadoop系统)shell 2:spark的sbin下的start-all.sh启动系统oop        start-history-server.sh历史记录spa (以前要在spark-defaults.conf配置server spark.executor.extraJ
相关文章
相关标签/搜索