zoukankan      html  css  js  c++  java
  • Spark3 学习【基于Java】4. SparkSql数据源

    通过DF,Spark可以跟大量各型的数据源(文件/数据库/大数据)进行交互。前面我们已经看到DF可以生成视图,这就是一个非常使用的功能。

    简单的读写流程如下:

    通过read方法拿到DataFrameReader对象,与之类似的就有DataFrameWriter对象,通过DF的write方法拿到,通过其save方法将数据保存到文件或数据库。

    Spark官方列出的支持的数据格式有:

    • parquet,这是Apache的一种序列化格式,我没有用过
    • json
    • text
    • csv,逗号或其他分隔符分割的text
    • orc,也是apache的一种数据格式,没有用过
    • avro,也是apache的一种数据格式,没有用过
    • JDBC,spark也是Java的,支持jdbc数据源天经地义
    • Hive,它本来就干这个的

    我们来尝试几个例子。

    JSON

    我们的json文件还是之前那种不规范格式,我期望读到DF后能变成规范的格式:

    1. Dataset<Row> json = session.read().json("spark-core/src/main/resources/people.json");
    2. json.show();
    3. json.write().save("spark-core/src/main/resources/people.json");

    这样执行会报错,说文件已经存在。

    于是换一个文件people1.json,这样会生成一个文件夹people1.json,而任务报错:

    网上找了一个答案试一下:Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z - Stack Overflow

    https://github.com/steveloughran/winutils/blob/master/hadoop-3.0.0/bin 下载hadoop.dll到hadoop的bin目录,执行了一下倒是没报错(看来只是win系统的原因,linux应该不报错吧),产生了一个文件夹:

    真奇怪,为什么spark非要使用parquet呢?可这样保存了该咋用呢?

    parquet

    根据 Parquet Files - Spark 3.2.0 Documentation (apache.org) 的说明,Parquet是apache的一款列式存储数据文件。spark会自动解析它的格式(有哪些字段),并把每一列都作为可空的。主要还是在hadoop相关的环境下使用。

    上面生成的parquet文件时可以直接读取的。和读取json文件一样,spark提供了parquet()方法:

    除了save方法,spark也支持通过parquet方法直接保存:

    JDBC

    这种方式对于我们来说可能是使用最多的。从数据库中读取数据,经过处理再写回到数据库。

    使用JDBC连接有两种方法,第一种方法是通过option传入连接参数:

    1. DataFrameReader jdbc = session.read().format("jdbc");
    2. jdbc.option("url", "jdbc:mysql://localhost:3306/enn");
    3. jdbc.option("dbtable", "config_info");
    4. jdbc.option("user", "root");
    5. jdbc.option("password", "123456");
    6. Dataset<Row> jdbcDf = jdbc.load();
    7. jdbcDf.show();

    直接执行会报错,因为找不到数据库驱动

    通过maven引入驱动(实际开发中如果不是使用maven项目,需要把驱动jar包放到服务器上指定classpath)即可成功

    除了option参数,spark还提供了通过Jdbc方法来生成DF,这样没有load的显式过程:

    可以看到代码更短更面向对象,所以推荐第二种。

    另外库名可以放到url中也可以放到表名前面。下面这样也可以,这是驱动提供的能力,和编码无关

    现在要把一个DF保存到数据库,使用write即可:

    注意要保存的表不能提前存在,不然会说表已经有了。那spark自己怎么创建表呢?它会根据推断的类型创建一个字段都可空的表:

    如果想追加数据呢?总不能每次都创建新表吧。可以使用mode方法指定,可以看到插入了两遍:

    还有一个问题是汉字编码问题,我们需要指定一下:

    这里使用一张已经存在的表,表定义是复制的原始表:

  • 相关阅读:
    elasticsearch:shard 和 replica 机制
    zookeeper 的 docker 镜像使用
    zookeeper 图形化的客户端工具:ZooInspector
    zookeeper 学习资料
    Spring Cloud 与 Dubbo、Spring Cloud 与 Docker、Spring Cloud 与 Kubernetes 比较
    可视化界面:ElasticSearch Head,最方便的是直接下载谷歌浏览器扩展程序
    java 中 heap(堆)和stack(栈)的区别
    Elasticsearch 学习资料
    025_lua脚本语言
    004_zookeeper运维之maxClientCnxns overflow
  • 原文地址:https://www.cnblogs.com/somefuture/p/15682410.html
Copyright © 2011-2022 走看看