zoukankan      html  css  js  c++  java
  • 寒假第十天

    我今天学习了spark sql

    Spark SQL可以很好地支持SQL查询,一方面,可以编写Spark应用程序使用SQL语句进行数据查询,另一方面,也可以使用标准的数据库连接器(比如JDBC或ODBC)连接Spark进行SQL查询,这样,一些市场上现有的商业智能工具(比如Tableau)就可以很好地和Spark SQL组合起来使用,从而使得这些外部工具借助于Spark SQL也能获得大规模数据的处理分析能力。

    对于实验五了解了Spark sql的基本操作 以及如何利用编程将RDD转化为DataFrame和编程实现利用 DataFrame 读写 MySQL 的数据 编程实现利用 DataFrame 读写 MySQL 的数据 

    1.Spark SQL 基本操作

    (1) 查询所有数据; 

    (2) 查询所有数据,并去除重复的数据;

    (3) 查询所有数据,打印时去除 id 字段;

    (4) 筛选出 age>30 的记录; 

    df.filter(df("age") > 30 ).show() 

    5) 将数据按 age 分组;

     df.groupBy("name").count().show() 

    (6) 将数据按 name 升序排列;

     df.sort(df("name").asc).show() 

    (7) 取出前 3 行数据;

    df.take(3) 或 scala> df.head(3

    8) 查询所有记录的 name 列,并为其取别名为 username;

    df.select(df("name").as("username")).show()

    (9) 查询年龄 age 的平均值;

     df.agg("age"->"avg")

    (10) 查询年龄 age 的最小值。

    df.agg("age"->"min") 

    l例如 df.select(df("name"), df("age") + 1).show()   // 将 "age" 加    df.filter(df("age") > 21).show() # 条件语句


    2.编程实现将 RDD 转换为 DataFrame 

    3. 编程实现利用 DataFrame 读写 MySQL 的数据

    1. cd /usr/local/spark
    2. ./bin/spark-shell
    3. --jars /usr/local/spark/jars/mysql-connector-java-5.1.40/mysql-connector-java-5.1.40-bin.jar
    4. --driver-class-path /usr/local/spark/jars/mysql-connector-java-5.1.40/mysql-connector-java-5.1.40-bin.jar
    5. 把下面程序一条条拷贝到spark-shell中执行
    import java.util.Properties
    
     import org.apache.spark.sql.types._
    
    import org.apache.spark.sql.Row
    
    
    object TestMySQL {
    
    def main(args: Array[String]) {
    
    val spark = SparkSession.builder().appName("RddToDFrame").master("local").getOrCreate()
    
    val employeeRDD = spark.sparkContext.parallelize(Array("3 Mary F 26","4 Tom M 23")).map(_.split(" "))
    
    val schema = StructType(List(StructField("id", IntegerType,true),StructField("name", StringType, true),StructField("gender", StringType,true),StructField("age", IntegerType, true)))
    
    val rowRDD = employeeRDD.map(p => Row(p(0).toInt,p(1).trim,p(2).trim,p(3).toInt)) 
    val employeeDF = spark.createDataFrame(rowRDD, schema)
    
    val prop = new Properties() 
    prop.put("user", "root") 
    prop.put("password", "199126") 
    prop.put("driver","com.mysql.jdbc.Driver") 
    employeeDF.write.mode("append").jdbc("jdbc:mysql://localhost:3306/sparktest","sparktest.employee", prop)
    
    Val jdbcDF = spark.read.format("jdbc").option("url","jdbc:mysql://localhost:3306/sparktest").option("driver","com.mysql.jdbc.Driver").option("dbtable","employee").option("user","root").option("password", "199126").load()
    
    jdbcDF.agg("age" -> "max", "age" -> "sum").show() //查询
    
     print("ok") } }
    

      

     

  • 相关阅读:
    局部 与 整体 修正 逐渐逼近
    en-zh(社会问题)social problems
    单调性 [1 + 1 / (n)]^n
    en-zh(科学技术)science and technology
    mysql函数之截取字符串
    看数据库的文件大小 MySQL Binlog日志的生成和清理规则
    Brouwer不动点
    布尔巴基学派
    量子杨-Baxter方程新解系的一般量子偶构造_爱学术 https://www.ixueshu.com/document/f3385115a33571aa318947a18e7f9386.html
    COMSOL
  • 原文地址:https://www.cnblogs.com/zlj843767688/p/12261772.html
Copyright © 2011-2022 走看看