zoukankan      html  css  js  c++  java
  • 38、数据源Parquet之使用编程方式加载数据

    一、概述

    Parquet是面向分析型业务的列式存储格式,由Twitter和Cloudera合作开发,2015年5月从Apache的孵化器里毕业成为Apache顶级项目,最新的版本是1.8.0。
    
    列式存储和行式存储相比有哪些优势呢?
    1、可以跳过不符合条件的数据,只读取需要的数据,降低IO数据量。 
    2、压缩编码可以降低磁盘存储空间。由于同一列的数据类型是一样的,可以使用更高效的压缩编码(例如Run Length Encoding和Delta Encoding)进一步节约存储空间。 
    3、只读取需要的列,支持向量运算,能够获取更好的扫描性能。 
    
    这里讲解Parquet数据源的第一个知识点,使用编程的方式加载Parquet文件中的数据。


    二、代码

    1、java实现

    package cn.spark.study.sql;
    
    import java.util.List;
    
    import org.apache.spark.SparkConf;
    import org.apache.spark.api.java.JavaSparkContext;
    import org.apache.spark.api.java.function.Function;
    import org.apache.spark.sql.DataFrame;
    import org.apache.spark.sql.Row;
    import org.apache.spark.sql.SQLContext;
    
    /**
     * Parquet数据源之使用编程方式加载数据
     * @author Administrator
     *
     */
    public class ParquetLoadData {
    
        public static void main(String[] args) {
            SparkConf conf = new SparkConf()
                    .setAppName("ParquetLoadData");  
            JavaSparkContext sc = new JavaSparkContext(conf);
            SQLContext sqlContext = new SQLContext(sc);
            
            // 读取Parquet文件中的数据,创建一个DataFrame
            DataFrame usersDF = sqlContext.read().parquet(
                    "hdfs://spark1:9000/spark-study/users.parquet");
            
            // 将DataFrame注册为临时表,然后使用SQL查询需要的数据
            usersDF.registerTempTable("users");  
            DataFrame userNamesDF = sqlContext.sql("select name from users");  
            
            // 对查询出来的DataFrame进行transformation操作,处理数据,然后打印出来
            List<String> userNames = userNamesDF.javaRDD().map(new Function<Row, String>() {
    
                private static final long serialVersionUID = 1L;
    
                @Override
                public String call(Row row) throws Exception {
                    return "Name: " + row.getString(0);
                }
                
            }).collect();
            
            for(String userName : userNames) {
                System.out.println(userName);  
            }
        }
        
    }
    
    
    
    
    
    
    ##打包、上传
    
    
    ##运行脚本
    cat parquet_load_data.sh
    /usr/local/spark-1.5.1-bin-hadoop2.4/bin/spark-submit 
    --class cn.spark.study.sql.ParquetLoadData 
    --num-executors 3 
    --driver-memory 100m 
    --executor-memory 100m 
    --executor-cores 3 
    --files /usr/local/hive/conf/hive-site.xml 
    --driver-class-path /usr/local/hive/lib/mysql-connector-java-5.1.17.jar 
    /usr/local/spark-study/java/sql/saprk-study-java-0.0.1-SNAPSHOT-jar-with-dependencies.jar 


    2、scala实现

    package cn.spark.study.sql
    
    import org.apache.spark.SparkConf
    import org.apache.spark.SparkContext
    import org.apache.spark.sql.SQLContext
    
    object ParquetLoadData {
      def main(args: Array[String]) {
        val conf = new SparkConf().setAppName("ParquetLoadData")
        val sc = new SparkContext(conf)
        val sqlContext = new SQLContext(sc)
        
        // 读取Parquet文件中的数据,创建一个DataFrame
        val usersDF = sqlContext.read.parquet("hdfs://spark1:9000/spark-study/users.parquet")
        
        // 将DataFrame注册为临时表,然后使用SQL查询需要的数据
        usersDF.registerTempTable("users")
        val userNameDF = sqlContext.sql("select * from users")
        
        // 对查询出来的DataFrame进行transformation操作,处理数据,然后打印出来
        userNameDF.rdd.map( row => "Name: " + row(0)).collect()
          .foreach( userName => println(userName))
        
      }
    }
    
    
    
    
    ##Export-->打jar包-->上传
    
    
    ##运行脚本
    [root@spark1 sql]# cat parquet_load_data.sh 
    /usr/local/spark-1.5.1-bin-hadoop2.4/bin/spark-submit 
    --class cn.spark.study.sql.ParquetLoadData 
    --num-executors 3 
    --driver-memory 100m 
    --executor-memory 100m 
    --executor-cores 3 
    --files /usr/local/hive/conf/hive-site.xml 
    --driver-class-path /usr/local/hive/lib/mysql-connector-java-5.1.17.jar 
    /usr/local/spark-study/scala/sql/spark-study-scala.jar 
  • 相关阅读:
    前端 JS,localStorage/sessionStorage、cookie 及 url 等实现前台数据共享、传输
    webpack 利用Code Splitting 分批打包、按需下载
    React项目之BrowserRouter路由方式之-------生产环境404问题
    React生产环境打包&&后台环境运行(有跨域+无跨域)
    React前台改用HashRouter并解决两个问题
    React路由基础
    React前台404组件页面+路由控制重定向
    react调用方法
    JavaScript 数组遍历方法的对比
    数据可视化相关库说明
  • 原文地址:https://www.cnblogs.com/weiyiming007/p/11275841.html
Copyright © 2011-2022 走看看