zoukankan      html  css  js  c++  java
  • spark 指定参数配置文件

    一般情况下,一个客户端指定一个集群,但是存在一个客户端指定多个集群的情况,这种情况下,需要动态调整配置文件

    //配置文件可以通过传参或者数据库进行读取

    package com.cslc
    
    
    import org.apache.hadoop.conf.Configuration
    import org.apache.hadoop.fs.Path
    import scala.collection.JavaConversions._
    import org.apache.spark.rdd.RDD
    import org.apache.spark.sql.SparkSession
    
    
    object Day01 {
      def main(args: Array[String]): Unit = {
        val sparkBuilder=SparkSession.builder
        val conf =new Configuration()
        val core=new Path("F:\IdeaWorkspace\lzm\Resource\core-site.xml")
        val hdfs=new Path("F:\IdeaWorkspace\lzm\Resource\hdfs-site.xml")
        val hive=new Path("F:\IdeaWorkspace\lzm\Resource\hive-site.xml")
        val yarn=new Path("F:\IdeaWorkspace\lzm\Resource\yarn-site.xml")
        val mapred=new Path("F:\IdeaWorkspace\lzm\Resource\mapred-site.xml")
        conf.addResource(hive)
        conf.addResource(core)
        conf.addResource(hdfs)
        conf.addResource(mapred)
        conf.addResource(yarn)
        for(c<-conf.iterator()){
          sparkBuilder.config(c.getKey,c.getValue)
        }
       val spark:SparkSession=sparkBuilder.master("local[2]").getOrCreate()
       spark.sparkContext.setLogLevel("error")
      val data=spark.read.parquet("hdfs://cslcdip/home/dip/lzm/sparkdata/users.parquet")
       println(data.schema)
       data.show()
    
      }
    
    }
  • 相关阅读:
    机器学习
    区块链
    MongoDB 生态 – 可视化管理工具
    分库分表适用场景
    权限管理
    ASP .NET Core 2.1 HTTP Error 502.5 – Process Failure
    Core2.0 项目到2.1
    Anaconda 安装和使用Numpy、Scipy、pandas、Scikit-learn
    NET Core 2.1.0 now available
    SQL Server发布订阅功能研究
  • 原文地址:https://www.cnblogs.com/students/p/14264258.html
Copyright © 2011-2022 走看看