zoukankan      html  css  js  c++  java
  • 1、spark-sql配置

    1、介绍

      spark SQL是构建在spark core模块上的四大模块之一,提供DataFrame等丰富的API,运行期间通过spark查询优化器翻译成物理执行计划,并行计算输出结果,底层计算原理用RDD计算实现。

    2、standalone模式下的spark和hive集成

      1、在 /soft/spark/conf 下创建 /soft/hive/conf/hive-site.xml 的软链接

    ln -s /soft/hive/conf/hive-site.xml /soft/spark/conf/hive-site.xml

      2、复制 /soft/hive/lib 下的mysql连接jar包到,spark的jars下

    cp mysql-connector-java-5.1.44.jar /soft/spark/jars/

      3、关闭 hive 的hive-site.xml 中的版本检查,否则会报版本不一致异常

    <property>
        <name>hive.metastore.schema.verification</name>
        <value>false</value>
    </property>

      4、启动spark shell

    //s101上开启
    spark-shell --master spark://s101:7077

      

    3、在 idea 中配置 spark sql 环境

      1、新建scala模块,添加maven支持

      2、添加依赖

    <dependencies>
            <dependency>
                <groupId>org.apache.spark</groupId>
                <artifactId>spark-sql_2.11</artifactId>
                <version>2.1.0</version>
            </dependency>
    
            <dependency>
                <groupId>org.apache.spark</groupId>
                <artifactId>spark-hive_2.11</artifactId>
                <version>2.1.0</version>
            </dependency>
    
            <dependency>
                <groupId>mysql</groupId>
                <artifactId>mysql-connector-java</artifactId>
                <version>5.1.44</version>
            </dependency>
        </dependencies>

      3、复制core-site.xml、hdfs-site.xml、hive-site.xml文件到模块的resources目录下

      

    渐变 --> 突变
  • 相关阅读:
    扁平化职能管理三部曲
    [转载]持续交付和DevOps的前世今生
    敏捷项目管理工具-百度效率云
    敏捷项目管理:基础知识与应用实务
    第8章 “敏捷+”创新创业模式
    第7章 "敏捷+"项目管理
    第6章 迭代循环与项目结束
    第5章 发布循环
    第4章 立项与项目启动
    Windows 2003 + IIS6.0 相关 401.1 或 401.2 等问题解决
  • 原文地址:https://www.cnblogs.com/lybpy/p/9800503.html
Copyright © 2011-2022 走看看