zoukankan      html  css  js  c++  java
  • SparkSql API

    通过api使用sparksql

       

    实现步骤:

    1)打开scala IDE开发环境,创建一个scala工程

    2)导入spark相关依赖jar包

    3)创建包路径以object类

    4)写代码

    代码示意:

    package cn.tedu.sparksql

       

    import org.apache.spark.SparkConf

    import org.apache.spark.SparkContext

    import org.apache.spark.sql.SQLContext

    object Demo01 {

    def main(args: Array[String]): Unit = {

    val conf=new SparkConf().setMaster("spark://hadoop01:7077").setAppName("sqlDemo01");

    val sc=new SparkContext(conf)

    val sqlContext=new SQLContext(sc)

     

    val rdd=sc.makeRDD(List((1,"zhang"),(2,"li"),(3,"wang")))

     

    import sqlContext.implicits._

    val df=rdd.toDF("id","name")

    df.registerTempTable("tabx")

     

    val df2=sqlContext.sql("select * from tabx order by name");

    val rdd2=df2.toJavaRDD;

    //将结果输出到linux的本地目录下,当然,也可以输出到HDFS

    rdd2.saveAsTextFile("file:///home/software/result");

    }

    }

       

    5)打jar包,并上传到linux虚拟机上

    6)在sparkbin目录下

    执行:sh spark-submit --class cn.tedu.sparksql.Demo01 ./sqlDemo01.jar

    7)最后检验

  • 相关阅读:
    排球运动规则简介
    我与计算机
    我和电脑的不解之缘
    作业
    怎样成为一个高手 观后感
    本周作业
    作业个人
    本周作业
    本周总结
    本周总结(13周)
  • 原文地址:https://www.cnblogs.com/shuzhiwei/p/11323157.html
Copyright © 2011-2022 走看看