-
分配更多的资源
/usr/local/spark/bin/spark-submit
--class cn.spark.workcount
-num-executor 3 //配置executoe的数量
-driver-memory 100m //配置driver的内存
-executor-memory 100m //配置每个executor的内存大小
-executor-cores 3 // 配置每个executor的cpu core数量
/usr/local/sparkWork.jar //