zoukankan      html  css  js  c++  java
  • Spark完成wordCount

    Spark官方自带了WordCount的样例,我们也可以自己实现,加深对Spark的理解。

    import org.apache.spark.{SparkConf, SparkContext}

    object WordCount {

    def main(args: Array[String]): Unit = {
    System.setProperty("hadoop.home.dir", "D:/winutils/")

    // 创建Spark配置,运行环境
    val sparkConf = new SparkConf()
    sparkConf.setAppName("WordCount")
    sparkConf.setMaster("local")
    // 创建Spark上下文对象
    val sparkContext = new SparkContext(sparkConf)
    // 从文件逐行读取到rdd
    val rdd = sparkContext.textFile("input/WordCountInput")
    // 将每一行内容分解为一个一个的单词
    val words = rdd.flatMap(line => line.split(","))
    // 转换数据结果并进行统计
    val count = words.map(word => (word, 1)).reduceByKey(_+_)

    count.foreach(println(_))
    }

    }

      每一步中Spark的操作如下:

  • 相关阅读:
    java第四次作业
    java第五次作业
    java第三次作业
    第二次学习笔记
    java学习笔记
    第十四周完成情况
    课程计划进程
    课程设计分工
    JAVA学习笔记(六)
    JAVA学习笔记(五)
  • 原文地址:https://www.cnblogs.com/zhangjwcode/p/12420639.html
Copyright © 2011-2022 走看看