zoukankan      html  css  js  c++  java
  • CentOS7安装hive-2.1.0

    环境:

    CentOS7

    Hadoop-2.6.4,配置两个节点:master、slave1

    mysql-server

    过程:

    下载、解压hive-2.1.0到/usr/hadoop-2.6.4/thirdparty

    $ tar zxvf apache-hive-2.1.0-bin.tar.gz

    设置 Hive环境变量

    编辑 /etc/profile文件, 在其中添加以下内容:

    # Hive Env
    export HIVE_HOME=/usr/hadoop-2.6.4/thirdparty/apache-hive-2.1.0-bin
    export PATH=$PATH:$HIVE_HOME/bin

    使环境变量生效:

    $ source /etc/profile

    配置Hive

    配置文件重命名

    在运行 Hive 之前需要使用以下命令修改配置文件:

    cd /usr/hadoop-2.6.4/thirdparty/apache-hive-2.1.0-bin/conf
    cp hive-env.sh.template hive-env.sh 

    cp hive-default.xml.template hive-site.xml

    cp hive-log4j2.properties.template hive-log4j2.properties

    cp hive-exec-log4j2.properties.template hive-exec-log4j2.properties

    修改hive-env.sh

    因为 Hive 使用了 Hadoop, 需要在 hive-env.sh 文件中指定 Hadoop 安装路径:

    export JAVA_HOME=/usr/java/jdk-1.8.0_101    ##Java路径
    export HADOOP_HOME=/usr/hadoop-2.6.4   ##Hadoop安装路径
    export HIVE_HOME=/usr/hadoop-2.6.4/thirdparty/apache-hive-2.1.0-bin    ##Hive安装路径
    export HIVE_CONF_DIR=$HIVE_HOME/conf    ##Hive配置文件路径

    修改hive-site.xml

    对应<name/>,修改成如下<value/>值:

    <property>
        <name>hive.exec.scratchdir</name>
        <value>/tmp/hive-${user.name}</value>
        <description>HDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir: ${hive.exec.scratchdir}/&lt;username&gt; is created, with ${hive.scratch.dir.permission}.</description>
      </property>
      <property>
        <name>hive.exec.local.scratchdir</name>
        <value>/tmp/${user.name}</value>
        <description>Local scratch space for Hive jobs</description>
      </property>
      <property>
        <name>hive.downloaded.resources.dir</name>
        <value>/tmp/hive/resources</value>
        <description>Temporary local directory for added resources in the remote file system.</description>
      </property>
    <property>
        <name>hive.querylog.location</name>
        <value>/tmp/${user.name}</value>
        <description>Location of Hive run time structured log file</description>
      </property>
    <property>
        <name>hive.server2.logging.operation.log.location</name>
        <value>/tmp/${user.name}/operation_logs</value>
        <description>Top level directory where operation logs are stored if logging functionality is enabled</description>
      </property>

    配置Hive Metastore

    默认情况下, Hive的元数据保存在了内嵌的 derby 数据库里, 但一般情况下生产环境使用 MySQL 来存放 Hive 元数据。

    1. 将 mysql-connector-java-5.1.40-bin.jar 放入 $HIVE_HOME/lib 下。
    2. hive-site.xml 中配置 MySQL 数据库连接信息。
    <property>
     <name>javax.jdo.option.ConnectionURL</name>
     <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true&amp;characterEncoding=UTF-8&amp;useSSL=false</value>
    </property>
    <property>
     <name>javax.jdo.option.ConnectionDriverName</name>
     <value>com.mysql.jdbc.Driver</value>
    </property>
    <property>
     <name>javax.jdo.option.ConnectionUserName</name>
     <value>hive</value>
    </property>
    <property>
     <name>javax.jdo.option.ConnectionPassword</name>
     <value>hive</value>
    </property>

    为Hive创建HDFS目录

    在 Hive 中创建表之前需要使用以下 HDFS 命令创建 /tmp 和 /user/hive/warehouse (hive-site.xml 配置文件中属性项 hive.metastore.warehouse.dir 的默认值) 目录并给它们赋写权限。

    start-dfs.sh
    hdfs dfs -mkdir /tmp hdfs dfs -mkdir -p /usr/hive/warehouse hdfs dfs -chmod g+w /tmp hdfs dfs -chmod g+w /usr/hive/warehouse

    给mysql创建用户hive/密码hive:

    $ mysql -u root -p #密码已设为123456
    mysql> CREATE USER 'hive'@'localhost' IDENTIFIED BY "hive";
    mysql> grant all privileges on *.* to hive@localhost identified by 'hive';

    运行Hive

    在命令行运行 hive 命令时必须保证 HDFS 已经启动。可以使用 start-dfs.sh 来启动 HDFS。

    从 Hive 2.1 版本开始, 我们需要先运行 schematool 命令来执行初始化操作。

    $ schematool -dbType mysql -initSchema

    运行结果:

    要使用 Hive CLI(Hive command line interface), 可以在终端输入以下命令:

    $ hive

    启动信息如下:

     

     使用 show tables 来显示所有的表:

     

    原文地址:https://my.oschina.net/jackieyeah/blog/735424

    启动信息如下:

  • 相关阅读:
    [学习笔记] SSD代码笔记 + EifficientNet backbone 练习
    [论文理解] CornerNet: Detecting Objects as Paired Keypoints
    [torch] torch.contiguous
    [tensorflow] tf2.0 简单例子
    [大坑]Could not create cudnn handle: CUDNN_STATUS_INTERNAL_ERROR
    本机Jenkins的使用
    安全工具acunetix使用
    cv2.matchTemplate()函数的应用,匹配图片后画出矩形
    python将PNG格式的图片转化成为jpg
    Python实现FTP文件的上传和下载
  • 原文地址:https://www.cnblogs.com/xuxy03/p/5957302.html
Copyright © 2011-2022 走看看