zoukankan      html  css  js  c++  java
  • spark复习总结03

    1.DataFrame的创建方式

      1.1 通过加载外部文件创建

    //通过sqlContext读取json文件创建DataFrame
    DataFrame dataFrame=sqlContext.read().json("src/main/resources/datafromcreate.txt");
    //通过两种方式加载json文件
    //sqlContext.read().json("src/main/resources/datafromcreate.txt");
    sqlContext.read().format("json").load("src/main/resources/datafromcreate.txt");

      1.2 通过RDD和元数据进行转换

        1.2.1 通过使用动态构建的元数据的方式创建DataFrame

    //创建sqlContext
    SQLContext sqlContext=new SQLContext(context);
    //使用程序构建DataFrame的元数据 StructType structType=new StructType(new StructField[]{ DataTypes.createStructField("id", DataTypes.IntegerType, false), DataTypes.createStructField("name", DataTypes.StringType, true), DataTypes.createStructField("age", DataTypes.IntegerType, true) }); //创建studentsRdd JavaRDD<Row> studentsRdd=context.textFile("src/main/resources/students.txt").map(new Function<String, Row>() { private static final long serialVersionUID = 1L; public Row call(String line) throws Exception { String[] words=line.split(" "); return RowFactory.create(Integer.parseInt(words[0]),words[1],Integer.parseInt(words[2])); } }); //使用动态构建的元数据创建DataFrame DataFrame studentDataFrame= sqlContext.createDataFrame(studentsRdd, structType);

        1.2.2 通过反射的方式,使用javabean的属性作为DataFrame的元数据进行创建DataFrame

    //封装为Student JavaRDD
    JavaRDD<Student> students=context.textFile("src/main/resources/students.txt").map(new Function<String, Student>() {
    
                private static final long serialVersionUID = 1L;
    
                public Student call(String line) throws Exception {
                    String[] words=line.split(" ");
                    return new Student(Integer.parseInt(words[0]), words[1], Integer.parseInt(words[2]));
                }
            });
            
    //使用反射技术,将javaRdd转换为DataFrame,使用javabean的属性定义DataFrame的元数据
    DataFrame studentDataFrame= sqlContext.createDataFrame(students, Student.class);

        1.2.3 使用hiveContext.table方法将hive表中的数据装换为DataFrame

    DataFrame goodStudentDF=hiveContext.table("sqark.good_student_info");

      1.3 加载分区表的parquet文件,自动推断分区字段

    //加载parquet文件为DataFrame
     DataFrame usersDF=sqlContext.read().parquet("src/main/resources/parquet/users.parquet");
             
    /**
     * root
        |-- name: string (nullable = true)
        |-- age: long (nullable = true)
    */
    usersDF.printSchema();   
    
    /**
    * 加载区别表中的数据是会自动推断分区列,
      users.parquet只有两个字段name,age;
      female和coutry为分区字段
    */ usersDF=sqlContext.read().parquet("src/main/resources/parquet/female=male/coutry=US/users.parquet"); /** * root |-- name: string (nullable = true) |-- age: long (nullable = true) |-- female: string (nullable = true) |-- coutry: string (nullable = true) */ usersDF.printSchema();

      1.4 合并分区

        开启合并元数据的两种方式:
          1) sqlContext.read().option("mergeSchema", "true")
           2) SparkConf().set("spark.sql.parquet.mergeSchema", "true")

    /**
    * megerschema/idandage.txt 中的内容只有id和age两个属性
    * megerschema/idandname.txt 中的内容只有id和name两个属性
    * 合并以后的元素为id,name,age三个属性
    */
    DataFrame personDF=sqlContext.read().option("mergeSchema", "true").format("json").load("src/main/resources/megerschema");
    personDF.printSchema();

     2.将DataFrame进行保存到外部文件系统

    //将DataFrame,默认以parquet类型进行保存,可以使用format修改保存的文件格式
    personDF.write().save("src/main/resources/output/persons");
    //DataFrame使用json格式保存
    personDF.write().format("json").save("src/main/resources/output/persons");
  • 相关阅读:
    SAP常用Tcode汇总
    SAP物料管理标准报表
    Linux系统将大量的图片合成.gif
    fluent对网格进行透明显示
    fluent计算结果进行镜像显示
    Fluent显示中间截面附近的颗粒
    fluent提取壁面上一条线上的冲蚀磨损量
    cfdemSolverPisoScalar和cfdemSolverPisoSTM的区别
    paraview处理fluent 2020R2计算结果
    关于fluent中的压力(二)和(三)
  • 原文地址:https://www.cnblogs.com/lifeone/p/7141710.html
Copyright © 2011-2022 走看看