Spark Standalone 提交模式

一.Client提交模式node

  提交命令:apache

    ./spark-submit --master spark://node1:7077 --class org.apache.spark.examples.SparkPi ../lib/spark-examples-1.6.0-hadooop2.6.0.jar 100app

    等价【默认为client】:oop

    ./spark-submit --master spark://node1:7077 --deploy-mode client --class org.apache.spark.examples.SparkPi ../lib/spark-examples-1.6.0-hadooop2.6.0.jar 100测试

  执行流程:spa

  

  分析:3d

    standalone-client模式提交任务,会在客户端看到task的执行状况和结果。当在客户端提交多个application时,每一个application会启动本身的dirver,driver与集群worker有大量的通讯,会形成客户端网卡流量激增的问题,这种模式适用于测试而不适应于生产环境。blog

二.Cluster提交模式it

   提交命令:spark

    ./spark-submit --master spark://node1:7077 --deploy-mode cluster --class org.apache.spark.examples.SparkPi ../lib/spark-examples-1.6.0-hadooop2.6.0.jar 100 

  执行流程:

    

  分析:

    standalone-cluster模式提交任务driver会在集群中的随机选择一个worker上启动,若是提交多个application,那么每一个application的driver会分散到集群的各个worker节点,至关于将client模式的客户端网卡流量激增问题分散到集群的各个节点中。这种模式适用于生产环境。

相关文章
相关标签/搜索