zoukankan      html  css  js  c++  java
  • spark 系列之四 Spark数据源之关系型数据库

    spark是一套数据处理框架,数据分为静态数据和实时数据(sparkStreaming)

    因为spark本身是一个数据处理的框架,本身不负责生产数据和存储数据。

    所以需要一些数据源的接入。本文主要说的是把关系型数据库mysql作为数据源。

    测试环境是在本地的mysql数据,需要本地已经安装了mysql数据库,并且根据本地mysql的版本,下载相应的驱动。

    import org.apache.spark.sql.SparkSession
    
    object SparkJDBC {
      def main(args: Array[String]): Unit = {
        val sparkSession = SparkSession.builder()
          .appName("TextFile")
          .master("local")
          .getOrCreate()
        /**
         * 成功连接mysql数据库
         */
        val jdbcDF = sparkSession.read.format("jdbc")
            .option("url", "jdbc:mysql://localhost:3306/spark?useUnicode=true&characterEncoding=utf8&serverTimezone=GMT")
            .option("driver","com.mysql.cj.jdbc.Driver")
            .option("dbtable", "student")
            .option("user", "root")
            .option("password", "123456").load()
        jdbcDF.show()
    
      }
    }

    本地mysql数据库的驱动pom.xml 文件如下

            <dependency>
                <groupId>mysql</groupId>
                <artifactId>mysql-connector-java</artifactId>
                <version>8.0.21</version>
            </dependency>
  • 相关阅读:
    【matlab】学习笔记 2脚本编写
    【matlab】学习笔记 1 入门简单操作
    【matlab】学习笔记 3 函数编写
    MySQL学习笔记
    数据库连接-----MySQL -> JDBC
    leetcode——Mysql数据库查询题目
    不同单词个数统计
    初始化二维数组
    JS基本变量类型和对象杂谈
    LeetCode Clone Graph
  • 原文地址:https://www.cnblogs.com/suzhenxiang/p/14216338.html
Copyright © 2011-2022 走看看