zoukankan      html  css  js  c++  java
  • Spark之 SparkSql、DataFrame、DataSet介绍

    SparkSql

      SparkSql是专门为spark设计的一个大数据仓库工具,就好比hive是专门为hadoop设计的一个大数据仓库工具一样。

    特性:

    1、易整合
        可以将sql查询与spark应用程序进行无缝混合使用,同时可以使用java、scala、python、R语言开发代码
    2、统一的数据源访问
        sparksql可以使用一种相同的方式来对接外部的数据源
        val dataframe=SparkSession.read.格式("该格式文件的路径")
    3、兼容hive
        可以通过sparksql来操作hivesql
    4、支持标准的数据库连接
        可以通过使用jdbc和odbc来连接上数据库

    DataFrame

      DataFrame前身叫SchemaRDD,在spark1.3.0之后把schemaRDD改名为DataFrame,DataFrame不在继承RDD,而之前的SchemaRDD它是直接继承自RDD,它是自己实现了RDD的一些方法。

      DataFrame是spark中基于RDD的分布式数据集,类似于传统数据库中的二维表格,表中有对应的字段名称和类型。在DataFrame这些信息就是它schema元信息。

    DataFrame和RDD的区别

      DataFrame比RDD多了对数据结构的描述信息,也就是DataFrame中的schema,schema里面有哪些列和列的类型是什么。

    DataFrame和RDD的优缺点

    RDD
     优点
        1、编译时类型安全
            也就是说后期开发代码的时候会进行类型的检查
        2、具有面向对象编程的风格
            可以通过对象调用方法
     缺点
        1、数据序列化和反序列化性能开销很大。
            数据在进行网络传输的时候,先要进行序列化,后续又需要进行反序列化这些操作都是在内存中进行
        2、频繁的对象的创建会带来GC(jvm内存回收机制:垃圾回收),GC处理的时候,其他进程都会暂停。
    DataFrame
     优点
        DataFrame引入了schema和off-heap
        1、schema就是对于DataFrame数据的结构信息进行描述
            在进行数据序列化的时候,就不需要针对于数据的结构进行序列化了,直接把数据本身进行序列化就可以了,减少数据的网络传输。
                解决了RDD在数据进行序列化和反序列化性能开销很大这个缺点。
        2、off-heap不在使用jvm堆中的内存来构建大量的对象,而是直接使用操作系统层面上的内存
            解决了RDD在堆中频繁创建大量的对象造成GC这个缺点。
     缺点
        DataFrame引入了schema和off-heap解决了RDD的缺点,同时也丢失了RDD的优点
        1、编译时不在是类型安全
        2、也不具备面向对象编程这种风格

    创建DataFrame的几种方式

    读取文本文件

    val df=spark.read.text("/person.txt")
    df.printSchema
    df.show

    读取json文件

    val df=spark.read.json("/people.json")
    df.printSchema
    df.show

    读取parquet文件

    val df=spark.read.parquet("/users.parquet")
    df.printSchema
    df.show

    DataSet

      DataSet是分布式的数据集合,Dataset提供了强类型支持,也是在RDD的每行数据加了类型约束。DataSet是在Spark1.6中添加的新的接口。它集中了RDD的优点(强类型和可以用强大lambda函数)以及使用了Spark SQL优化的执行引擎。

    DataSet和DataFrame的转换

    1、DataFrame转换成DataSet
       val ds=df.as[强类型]
    2、DataSet转换成DataFrame
       val df=ds.toDF

    创建DataSet的几种方式

    通过一个已经存在的scala集合去构建

    val ds=spark.createDataset(List(1,2,3,4))
    val ds=List(1,2,3,4).toDS

    通过一个已经存在的RDD去构建

    val ds=spark.createDataset(sc.textFile("/person.txt"))

    DataFrame转换成DataSet

    val ds=df.as[强类型]

    通过一个已经存在DataSet调用对应的方法去生成一个新的DataSet

    val ds1=ds.map(x =>"itcast:"+x)

    http://spark.apache.org/docs/2.1.3/api/scala/index.html#org.apache.spark.sql.Dataset

  • 相关阅读:
    《Java数据结构与算法》笔记-CH4-5不带计数字段的循环队列
    《Java数据结构与算法》笔记-CH4-4循环队列
    效率方案:快速切换联调、测试、正式环境
    redis 安装、配置与测试
    计算机科学中的圣经
    自建主机
    正则表达式学习入门
    数据库查询语句缺失部分索引,引起的问题(20170209)
    redis 经验、问题以及其解决方案
    资讯周刊---20170210
  • 原文地址:https://www.cnblogs.com/blazeZzz/p/9850993.html
Copyright © 2011-2022 走看看