zoukankan      html  css  js  c++  java
  • Spark makeRDD方法本地Task的默认分区数

    注意setMaster("local")和setMaster("local[*])的分区数是不一样的。*会匹配所有的cpu核数。

    import org.apache.spark.rdd.RDD
    import org.apache.spark.{SparkConf, SparkContext}
    
    object Seq_Partition_04 {
      def main(args: Array[String]): Unit = {
        val sparkConf: SparkConf = new SparkConf().setMaster("local").setAppName("Operator")
        val sc: SparkContext = new SparkContext(sparkConf)
    
        val rdd: RDD[Int] = sc.makeRDD(List(1, 2, 3, 4))
        rdd.saveAsTextFile("seq_output_04")
        sc.stop()
      }
    }
    import org.apache.spark.rdd.RDD
    import org.apache.spark.{SparkConf, SparkContext}
    
    object Seq_Partition_05 {
      def main(args: Array[String]): Unit = {
        val sparkConf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("Operator")
        val sc: SparkContext = new SparkContext(sparkConf)
    
        val rdd: RDD[Int] = sc.makeRDD(List(1, 2, 3, 4))
        rdd.saveAsTextFile("seq_partition_05")
        sc.stop()
      }
    }

    如果spark.default.parallelism没有设置,就会使用cpu的核数。

  • 相关阅读:
    vim代码对齐
    在liunx中,快速查找到以前使用过的命令行
    linux文件权限与目录设置
    ASP常用代码
    存储过程
    WebService
    SNS
    浪曦博客系统
    SQL事件探查器与索引优化向导
    光盘AJAX
  • 原文地址:https://www.cnblogs.com/mkl34367803/p/15780731.html
Copyright © 2011-2022 走看看