zoukankan      html  css  js  c++  java
  • Spark本地环境实现wordCount单词计数

    注:图片如果损坏,点击文章链接:https://www.toutiao.com/i6814778610788860424/

    编写类似MapReduce的案例-单词统计WordCount

    要统计的文件为Spark的README.md文件

    Spark本地环境实现wordCount单词计数

     

    分析逻辑:

    1. 读取文件,单词之间用空格分割

    2. 将文件里单词分成一个一个单词

    3. 一个单词,计数为1,采用二元组计数word ->(word,1)

    4. 聚合统计每个单词出现的次数

    RDD的操作

    Spark本地环境实现wordCount单词计数

     

    1.读取文件:

    sc.textFile("file:///opt/modules/spark/README.md")

    注意:textFile里面的路径,如果没有指定schema,那么默认的话是从HDFS文件系统读取数据,如果不加file://就是/opt/modules/spark/README.md的路径,是从HDFS对应目录下读取

    接收变量是res0

    Spark本地环境实现wordCount单词计数

     

    res0方法查看

    Spark本地环境实现wordCount单词计数

     

    可以用一个变量接收

    Spark本地环境实现wordCount单词计数

     

    rdd.count-->统计RDD里有多少条数据

    Spark本地环境实现wordCount单词计数

     

    rdd.first--> 取RDD的第一条数据

    Spark本地环境实现wordCount单词计数

     

    可以对比源文件看到第一条数据

    Spark本地环境实现wordCount单词计数

     

    rdd.take(10)--> 取RDD的前10条数据,也可以对比源文件查看

    Spark本地环境实现wordCount单词计数

     

    2. 将文件中的数据分成一个一个的单词

    Spark本地环境实现wordCount单词计数

     

    map和flatMap返回类型不一致,返回结果类型是RDD[String]和RDD[Array[String]]

    Spark本地环境实现wordCount单词计数

     

    可以使用collect方法,查看结果

    变量名

    Spark本地环境实现wordCount单词计数

     

    collect方法

    Spark本地环境实现wordCount单词计数

     

    map和flatMap返回结果的不同之处:flatMap会进行扁平化操作

    mapRDD = rdd.map(line => line.split(" "))

    第一个元素:Array("#","Apache","spark")

    Spark本地环境实现wordCount单词计数

     

    第三个元素:Array("Spark","is")

    Spark本地环境实现wordCount单词计数

     

    flatmapRDD = rdd.flatMap(line => line.split(" "))

    第一个元素:"#"

    Spark本地环境实现wordCount单词计数

     

    所以我们选择flatMap,而不是map

    val flatMapRDD = rdd.flatMap(line => line.split(" "))

    //flatMapRDD: org.apache.spark.rdd.RDD[String]

    去除空的字符串的操作

    flatMapRDD.filter(word => word.nonEmpty)

    Spark本地环境实现wordCount单词计数

     

    3. 将每个单词进行计数

    val mapRDD = flatMapRDD.map(word => (word,1))

    Spark本地环境实现wordCount单词计数

     

    返回类型//mapRDD: org.apache.spark.rdd.RDD[(String, Int)]

    Spark本地环境实现wordCount单词计数

     

    4.将相同的单词放在一起进行value值得聚合

    val reduceRDD = mapRDD.reduceByKey((a,b) => a + b)

    //reduceRDD: org.apache.spark.rdd.RDD[(String, Int)]

    Spark本地环境实现wordCount单词计数

     

    查看对比下(reduceByKey前后两个变量的collect)

    Spark本地环境实现wordCount单词计数

     

    链式编程写法:

    val result = sc.textFile("file:///opt/modules/o2o23/spark/README.md").flatMap(line => line.split(" ")).filter(word => word.nonEmpty).map(word => (word,1)).reduceByKey((a,b) => a + b).collect
    Spark本地环境实现wordCount单词计数

     

    链式编程简化写法:

    val result1 = sc.textFile("file:///opt/modules/o2o23/spark/README.md").flatMap(_.split(" ")).filter(_.nonEmpty).map((_,1)).reduceByKey(_+_).collect
    Spark本地环境实现wordCount单词计数

     

  • 相关阅读:
    HttpCookie类
    WebClient类
    最大流算法 ISAP 模板 和 Dinic模板
    拓扑序+dp Codeforces Round #374 (Div. 2) C
    二分 Intel Code Challenge Elimination Round (Div.1 + Div.2, combined) D
    线段树 或者 并查集 Intel Code Challenge Elimination Round (Div.1 + Div.2, combined) C
    无源无汇有上下界的最大流
    并查集+bfs+暴力滑窗 Codeforces Round #356 (Div. 2) E
    dfs Codeforces Round #356 (Div. 2) D
    cookie+session
  • 原文地址:https://www.cnblogs.com/bqwzy/p/12688507.html
Copyright © 2011-2022 走看看