spark job部署模式
Spark job部署模式 ------------------ spark job的部署有两种模式,client和cluster spark-submit .. --deploy-mode client | cluster 1.client 默认值,driver运行在client端主机上。 spark-submit --class a --master spark://s101:7077 myspark.jar /user/centos/data/1.txt 2.cluster driver运行在某个worker节点上。客户端只负责提交job。 spark-submit --class s --master spark://s101:7077 --deploy-mode cluster hdfs://s101/user/centos/data/myspark.jar /user/centos/data/1.txt