zoukankan      html  css  js  c++  java
  • (转)Spark JAVA RDD API

    对API的解释:

    1.1 transform

    l  map(func):对调用map的RDD数据集中的每个element都使用func,然后返回一个新的RDD,这个返回的数据集是分布式的数据集

    l  filter(func) : 对调用filter的RDD数据集中的每个元素都使用func,然后返回一个包含使func为true的元素构成的RDD

    l  flatMap(func):和map差不多,但是flatMap生成的是多个结果

    l  mapPartitions(func):和map很像,但是map是每个element,而mapPartitions是每个partition

    l  mapPartitionsWithSplit(func):和mapPartitions很像,但是func作用的是其中一个split上,所以func中应该有index

    l  sample(withReplacement,faction,seed):抽样

    l  union(otherDataset):返回一个新的dataset,包含源dataset和给定dataset的元素的集合

    l  distinct([numTasks]):返回一个新的dataset,这个dataset含有的是源dataset中的distinct的element

    l  groupByKey(numTasks):返回(K,Seq[V]),也就是Hadoopreduce函数接受的key-valuelist

    l  reduceByKey(func,[numTasks]):就是用一个给定的reduce func再作用在groupByKey产生的(K,Seq[V]),比如求和,求平均数

    l  sortByKey([ascending],[numTasks]):按照key来进行排序,是升序还是降序,ascending是boolean类型

    1.2 action

    l  reduce(func):说白了就是聚集,但是传入的函数是两个参数输入返回一个值,这个函数必须是满足交换律和结合律的

    l  collect():一般在filter或者足够小的结果的时候,再用collect封装返回一个数组

    l  count():返回的是dataset中的element的个数

    l  first():返回的是dataset中的第一个元素

    l  take(n):返回前n个elements

    l  takeSample(withReplacement,num,seed):抽样返回一个dataset中的num个元素,随机种子seed

    l  saveAsTextFile(path):把dataset写到一个text file中,或者hdfs,或者hdfs支持的文件系统中,spark把每条记录都转换为一行记录,然后写到file中

    l  saveAsSequenceFile(path):只能用在key-value对上,然后生成SequenceFile写到本地或者hadoop文件系统

    l  countByKey():返回的是key对应的个数的一个map,作用于一个RDD

    l  foreach(func):对dataset中的每个元素都使用func

    以下是案例:



    /*数据情况
     a 1
    b 2
    c 3
    d 4

    e 5*/

     

    主函数:

    public class SparkCoreTest 
    {

        public static void main( String[] args )
        {
        if(args.length<1){
    System.out.println("请输入参数!");
    }

     String filepath=args[0];
            JavaSparkContext sc =JavaSparkContextFactory.getJavaSparkContext("sparkCoreTest");

            JavaRDD<String> rdd=sc.textFile(filepath);  

    --transform
            //testSparkCoreApiMap(logData);
            //testSparkCoreApiFilter(rdd);
            //testSparkCoreApiFlatMap(rdd);
            
            //testSparkCoreApiUnion(rdd);
           // testSparkCoreApiDistinct(rdd);
           // testSparkCoreApiMaptoPair(rdd);
           //testSparkCoreApiGroupByKey(rdd);
            //testSparkCoreApiReduceByKey(rdd);

    --action
            testSparkCoreApiReduce(rdd);
             

            
        }
        
        
        
        /**
         * Map主要是对数据进行处理,不进行数据集的增减
         * 
         * 本案例实现,打印所有数据
         * 
         * @param rdd
         */
        
        private static void testSparkCoreApiMap(JavaRDD<String> rdd){
        JavaRDD<String> logData1=rdd.map(new Function<String,String>(){
              public String call(String s){ 
              return s;
              }
             });
             List list = logData1.collect();
              for (int i = 0; i < list.size(); i++) {
              System.out.println(list.get(i));


      }
        
        }
       
        
        
       /*
        * 
        * 
        * filter主要是过滤数据的功能
        * 本案例实现:过滤含有a的那行数据
        * 
        * 
        */


        private static void testSparkCoreApiFilter(JavaRDD<String> rdd){
        JavaRDD<String> logData1=rdd.filter(new Function<String,Boolean>(){
              public Boolean call(String s){ 
             
            return (s.split(" "))[0].equals("a");
              }
             
             });
             List list = logData1.collect();
              for (int i = 0; i < list.size(); i++) {
              System.out.println(list.get(i));


      }
        
        }
        
        
        /*
         * 
         * 
         * flatMap  用户行转列
         * 本案例实现:打印所有的字符
         * 
         * 
         */


         private static void testSparkCoreApiFlatMap(JavaRDD<String> rdd){
        JavaRDD<String> words=rdd.flatMap(
               new FlatMapFunction<String, String>() {
                   public Iterable<String> call(String s) throws Exception {
                       return Arrays.asList(s.split(" "));
                   }
               }
        );
              List list = words.collect();
               for (int i = 0; i < list.size(); i++) {
              System.out.println(list.get(i));


      }
         
         }
        
         
        
         /**
          * testSparkCoreApiUnion 
          * 合并两个RDD
          * @param rdd
          */
         private static void testSparkCoreApiUnion(JavaRDD<String> rdd){
        JavaRDD<String> unionRdd=rdd.union(rdd);
        unionRdd.foreach(new VoidFunction<String>(){
        public void call(String lines){
        System.out.println(lines);
        }
        });
         }
         
         
         /**
          * testSparkCoreApiDistinct Test
          * 对RDD去重
          * @param rdd
          */
         private static void testSparkCoreApiDistinct(JavaRDD<String> rdd){
        JavaRDD<String> unionRdd=rdd.union(rdd).distinct();
        unionRdd.foreach(new VoidFunction<String>(){
        public void call(String lines){
        System.out.println(lines);
        }
        });
         }
         
         
         /**
          * testSparkCoreApiMaptoPair Test
          * 把RDD映射为键值对类型的数据
          * @param rdd
          */
         private static void testSparkCoreApiMaptoPair(JavaRDD<String> rdd){
         
        JavaPairRDD<String, Integer> pairRdd=rdd.mapToPair(new PairFunction<String,String,Integer>(){


    @Override
    public Tuple2<String, Integer> call(String t) throws Exception {
    String[] st=t.split(" ");
    return new Tuple2(st[0], st[1]);
    }
         
        });
         
        pairRdd.foreach(new VoidFunction<Tuple2<String, Integer>>(){
    @Override
    public void call(Tuple2<String, Integer> t) throws Exception {
    System.out.println(t._2());

    }
    });
         
         }
         
         
         
         /**
          * testSparkCoreApiGroupByKey Test
          * 对键值对类型的数据进行按键值合并
          * @param rdd
          */
         
         private static void testSparkCoreApiGroupByKey(JavaRDD<String> rdd){
         
        JavaPairRDD<String, Integer> pairRdd=rdd.mapToPair(new PairFunction<String,String,Integer>(){


    @Override
    public Tuple2<String, Integer> call(String t) throws Exception {
    String[] st=t.split(" ");
    return new Tuple2(st[0], Integer.valueOf(st[1]));
    }
         
        });
         
        JavaPairRDD<String, Iterable<Integer>> pairrdd2= pairRdd.union(pairRdd).groupByKey();
        pairrdd2.foreach(new VoidFunction<Tuple2<String, Iterable<Integer>>>(){
      @Override
      public void call(Tuple2<String, Iterable<Integer>> t) throws Exception {
      Iterable<Integer> iter = t._2();  
                    for (Integer integer : iter) {  
                    System.out.println(integer);
                    }  
       
     
      }
      });
        }
         
      
         /**
          * testSparkCoreApiReduceByKey 
          * 对键值对进行按键相同的对值进行操作
          * @param rdd
          */
         private static void testSparkCoreApiReduceByKey(JavaRDD<String> rdd){
         
        JavaPairRDD<String, Integer> pairRdd=rdd.mapToPair(new PairFunction<String,String,Integer>(){


      @Override
      public Tuple2<String, Integer> call(String t) throws Exception {
      String[] st=t.split(" ");
      return new Tuple2(st[0], Integer.valueOf(st[1]));
      }
           
          });
         
        JavaPairRDD<String, Integer> pairrdd2 =pairRdd.union(pairRdd).reduceByKey(
               new Function2<Integer,Integer,Integer>(){
    @Override
    public Integer call(Integer v1, Integer v2) throws Exception {
     
    return v1+v2;
    }
               } 
           ).sortByKey() ;
        pairrdd2.foreach(new VoidFunction<Tuple2<String, Integer>>(){
      @Override
      public void call(Tuple2<String, Integer> t) throws Exception { 
                      System.out.println(t._2());
      
      }
      });
         }
         
         
         /**
          * testSparkCoreApiReduce
          * 对RDD进行递归调用
          * @param rdd
          */
         private static void testSparkCoreApiReduce(JavaRDD<String> rdd){
        //由于原数据是String,需要转为Integer才能进行reduce递归
        JavaRDD<Integer> rdd1=rdd.map(new Function<String,Integer>(){


    @Override
    public Integer call(String v1) throws Exception {
    // TODO Auto-generated method stub
    return Integer.valueOf(v1.split(" ")[1]);
    }  
        });
         
        Integer a= rdd1.reduce(new Function2<Integer,Integer,Integer>(){
    @Override
    public Integer call(Integer v1,Integer v2) throws Exception {
    return v1+v2;
    }  
        });
        System.out.println(a);
         
         }
         
         
        
    }
     
  • 相关阅读:
    Windows10:家庭版如何设置开机自动登录
    Windows10:常用快捷键(转载)
    Windows10:找回传统桌面的系统图标
    MyBatis之XML映射文件详解
    MyBatis之核心对象及配置文件详解
    Java用Jsoup登录网站,以JSON格式提交(POST)数据,处理JSON格式返回结果,并将处理结果保存到系统剪贴板
    (转)总结.Net下后端的几种请求方式(WebClient、WebRequest、HttpClient)
    jvisualvm.exe 查看堆栈分配
    Hutool 常用的工具类和方法
    StringRedisTemplate 常用方法
  • 原文地址:https://www.cnblogs.com/mowei/p/6829585.html
Copyright © 2011-2022 走看看