zoukankan      html  css  js  c++  java
  • hive优化之开启压缩功能

    1、开启hive作业mapreduce任务中间压缩功能:

    对于数据进行压缩可以减少job中map和reduce task间的数据传输量。对于中间数据压缩,选择一个低cpu开销编/解码器要不选择一个压缩率高的编解码器重要很多。hadoop压缩的默认编解码器是DefaultCodec,可以通过设置参数mapred.map.output.compression.codec来进行相应调整,这是一个hadoop配置项,可以在hadoop mapred-site.xml文件更改或hive-site.xml文件进行更改。SnappyCodec是一个比较好的编解码器,拥有低cpu开销和好的压缩率。

    开启中间数据压缩需要设置参数:

    hive.exec.compress.intermediate的值为true;

    mapred.map.output.compression.codec为org.apache.hadoop.io.compress.SnappyCodec:

            <property>

                    <name>hive.exec.compress.intermediate</name>

                    <value>true</value>

            </property>

        <property>

                    <name>mapred.map.output.compression.codec</name>

                    <value> org.apache.hadoop.io.compress.SnappyCodec </value>

            </property>

    注意:hadoop开启中间压缩参数为mapred.compress.map.output。

    2、开启hive作业最终输出结果压缩功能:

    当hive将输出写入到表中时,输出内容同样可以进行压缩。通过设置属性hive.exec.compress.output为true控制输出结果压缩。用户可能需要保持默认设置false,然后通过在查询语句或执行脚本中设置这个值为true启用输出结果压缩功能。当参数hive.exec.compress.output设置为true时,需要为其制定一个编解码器,对于输出文件使用Gzip是个不错的选择,因为可以大大减小压缩文件的大小。但是,需要注意的是Gzip压缩文件对于后边mapreduce job而言是不可分割的。

    启用结果压缩设置参数:

    set hive.exec.compress.output=true;

    set mapred.output.compression.codec=org.apache.hadoop.io.compress.GzipCodec;

    可能的一个hive作业的设置如下:

    set mapred.max.split.size=100000000;
    set mapred.min.split.size.per.node=100000000;
    set mapred.min.split.size.per.rack=100000000;
    set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat;

    set hive.exec.reducers.bytes.per.reducer=1000000000;

    set hive.exec.reducers.max=256;

    set hive.merge.mapfiles=true;

    set hive.merge.mapredfiles =ture;

    set hive.merge.size.per.task=256000000;

    set hive.merge.smallfiles.avgsize=16000000;

    set hive.exec.compress.intermediate=true;

    set mapred.map.output.compression.codec= org.apache.hadoop.io.compress.SnappyCodec;

    set hive.exec.compress.output=true;

    set mapred.output.compression.codec=org.apache.hadoop.io.compress.GzipCodec;

    select deptno,count(1) from emp group by deptno;

  • 相关阅读:
    区别TPS QPS HPS RPS PV UV
    C/C++常用库及工具
    CentOS常用命令备忘
    PHP的学习--Traits新特性
    CentOS7创建本地YUM源的三种方法
    CentOS下iptables详解
    Linux备份压缩命令
    Nginx HTTPS功能部署实践
    Fuel 30 分钟快速安装OpenStack
    hadoop学习通过虚拟机安装hadoop完全分布式集群
  • 原文地址:https://www.cnblogs.com/wcwen1990/p/7601249.html
Copyright © 2011-2022 走看看