zoukankan      html  css  js  c++  java
  • 【大数据面试宝典】 第一篇 Hadoop 面试题

    • Hadoop常见的端口
    • Hadoop生态圈
    • Hadoop配置文件以及简单的Hadoop集群搭建
    • Hadoop参数调优
    • 项目经验之基准测试
    • Hadoop宕机
    • Hadoop 高可用配置

    Hadoop 常见的端口

     dfs.namenode.http-address:50070

     dfs.datanode.http-address:50075

     SecondaryNameNode辅助名称节点端口号:50090

     dfs.datanode.address:50010

     fs.defaultFS:8020 或者9000

     yarn.resourcemanager.webapp.address:8088

     历史服务器web访问端口:19888

    Hadoop 生态圈

    Hadoop生态

    Hadoop生态圈.png
    然后就是各个组件的介绍了,简单的介绍一下就好了。比如说:

    • Flume: 一个高可用的,高可靠的,分布式的海量数据日志采集,聚合和传输的系统;
    • Zookeeper: 是一个基于观察者模式设计的分布式服务管理框架,他负责存储和管理大家都关心的数据,然后接受管擦者的注册,一旦这些数据的状态发生了变化,Zookeeper就将负责通知已经在Zookeeper上注册的观察者做出相应的反应。

    Hadoop配置文件以及简单的Hadoop集群搭建

    (1)配置文件:

    core-site.xml

    <configuration>
            <!-- 指定HDFS中NameNode的地址 -->
            <property>
                    <name>fs.defaultFS</name>
                     <value>hdfs://master:9000</value>
            </property>
    
            <!-- 指定Hadoop运行时产生文件的存储目录 -->
            <property>
                    <name>hadoop.tmp.dir</name>
                    <value>/opt/module/hadoop-2.7.2/data/tmp</value>
            </property>
            <!--配置 LZO -->
            <property>
               <name>io.compression.codecs</name>
               <value>
                  org.apache.hadoop.io.compress.GzipCodec,
                  org.apache.hadoop.io.compress.DefaultCodec,
                  org.apache.hadoop.io.compress.BZip2Codec,
                  org.apache.hadoop.io.compress.SnappyCodec,
                  com.hadoop.compression.lzo.LzoCodec,
                  com.hadoop.compression.lzo.LzopCodec
                </value>
            </property>
    
            <property>
                <name>io.compression.codec.lzo.class</name>
                <value>com.hadoop.compression.lzo.LzoCodec</value>
            </property>
            <!-- 设置压缩格式 -->
            <property>
                <name>io.compression.codecs</name>
                <value>org.apache.hadoop.io.compress.SnappyCodec</value>
            </property>
    </configuration>
    
    

    hdfs-site.xml

    <configuration>
    
        <property>
            <name>dfs.replication</name>
            <value>3</value>
        </property>
    
          <property>
              <name>dfs.image.transfer.timeout</name>
              <value>3600000</value>
              <description>如果对于某一次数据操作来讲,延迟非常高,socket需要等待更长的时间,建议把该值设置为更大的值(默认60000毫秒),以确保socket不会被timeout掉。</description>
          </property>
            <!-- 指定Hadoop辅助名称节点主机配置 -->
        <property>
             <name>dfs.namenode.secondary.http-address</name>
             <value>slave02:50090</value>
        </property>
    <!--  如果 HDFS 上有一个节点突然断了,就会出现数据无法写入的情况,设置这两个参数可以避免-->
        <property>
            <name>dfs.client.block.write.replace-datanode-on-failure.enable</name>
            <value>true</value>
        </property>
        <property>
            <name>dfs.client.block.write.replace-datanode-on-failure.policy</name>
            <value>NEVER</value>
        </property>
    </configuration>
    

    mapred-site.xml

    <configuration>
        <!-- 指定 mr 运行 在 yarn 上-->
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
        <!-- 历史服务器端地址 -->
        <property>
            <name>mapreduce.jobhistory.address</name>
            <value>slave01:10020</value>
        </property>
        <!-- 历史服务器web端地址 -->
        <property>
            <name>mapreduce.jobhistory.webapp.address</name>
            <value>slave01:19888</value>
        </property>
        <property>
            <name>mapreduce.map.output.compress</name>
            <value>true</value>
        </property>
        <!-- map 端输出的格式 -->
        <property>
            <name>mapreduce.map.output.compress.codec</name>
            <value>org.apache.hadoop.io.compress.SnappyCodec</value>
        </property>
    </configuration>
    

    yarn-site.xml

    <configuration>
            <!-- Reducer获取数据的方式 -->
            <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
            </property>
            <!-- 指定YARN的ResourceManager的地址 -->
            <property>
                <name>yarn.resourcemanager.hostname</name>
                <value>slave01</value>
            </property>
            <!-- 日志保留时间设置7天 -->
            <property>
                <name>yarn.log-aggregation.retain-seconds</name>
                <value>604800</value>
            </property>
    
            <property>
                 <name>yarn.nodemanager.vmem-check-enabled</name>
                 <value>false</value>
            </property>
    </configuration>
    

    hadoop-env.sh,yarn-env.sh,mapred-env.sh这三个文件,我们主要配置一下 JAVA_HOME 的路径。

    slaves

    这个文件,我们用于配置 DataNode 的节点。

    master
    slave01
    slave02
    

    (2)简单的集群搭建过程:

    1. JDK安装
    2. 配置SSH免密登录
    3. 配置hadoop核心文件
    4. 格式化namenode

    Hadoop参数调优

    1)在hdfs-site.xml文件中配置多目录,最好提前配置好,否则更改目录需要重新启动集群.

    2)NameNode有一个工作线程池,用来处理不同DataNode的并发心跳以及客户端并发的元数据操作. dfs.namenode.handler.count=20 * log2(Cluster Size),比如集群规模为10台时,此参数设置为60.

    3)编辑日志存储路径dfs.namenode.edits.dir设置与镜像文件存储路径 dfs.namenode.name.dir 尽量分开,达到最低写入延迟

    4)服务器节点上YARN可使用的物理内存总量,默认是8192(MB),注意,如果你的节点内存资源不够8GB,则需要调减小这个值,而YARN不会智能的探测节点的物理内存总量。yarn.nodemanager.resource.memory-mb

    5)单个任务可申请的最多物理内存量,默认是8192(MB).yarn.scheduler.maximum-allocation-mb .

    项目经验之基准测试

    搭建完Hadoop集群后需要对HDFS读写性能和MR计算能力测试。测试jar包在hadoop的share文件夹下。

    Hadoop宕机

    1)如果MR造成系统宕机。此时要控制Yarn同时运行的任务数,和每个任务申请的最大内存。调整参数:yarn.scheduler.maximum-allocation-mb(单个任务可申请的最多物理内存量,默认是8192MB)

    2)如果写入文件过量造成NameNode宕机。那么调高Kafka的存储大小,控制从Kafka到HDFS的写入速度。高峰期的时候用Kafka进行缓存,高峰期过去数据同步会自动跟上。

    Hadoop 高可用配置

    配置 HDFS-HA集群

    1. 配置core-site.xml
    <configuration>
    <!-- 把两个NameNode)的地址组装成一个集群mycluster -->
                <property>
                      <name>fs.defaultFS</name>
                  <value>hdfs://mycluster</value>
                </property>
    
                <!-- 指定hadoop运行时产生文件的存储目录 -->
                <property>
                      <name>hadoop.tmp.dir</name>
                      <value>/opt/ha/hadoop-2.7.2/data/tmp</value>
                </property>
    </configuration>
    
    1. 配置 hdfs-site.xml
    <configuration>
        <!-- 完全分布式集群名称 -->
        <property>
            <name>dfs.nameservices</name>
            <value>mycluster</value>
        </property>
    
        <!-- 集群中NameNode节点都有哪些 -->
        <property>
            <name>dfs.ha.namenodes.mycluster</name>
            <value>nn1,nn2</value>
        </property>
    
        <!-- nn1的RPC通信地址 -->
        <property>
            <name>dfs.namenode.rpc-address.mycluster.nn1</name>
            <value>hadoop102:9000</value>
        </property>
    
        <!-- nn2的RPC通信地址 -->
        <property>
            <name>dfs.namenode.rpc-address.mycluster.nn2</name>
            <value>hadoop103:9000</value>
        </property>
    
        <!-- nn1的http通信地址 -->
        <property>
            <name>dfs.namenode.http-address.mycluster.nn1</name>
            <value>hadoop102:50070</value>
        </property>
    
        <!-- nn2的http通信地址 -->
        <property>
            <name>dfs.namenode.http-address.mycluster.nn2</name>
            <value>hadoop103:50070</value>
        </property>
    
        <!-- 指定NameNode元数据在JournalNode上的存放位置 -->
        <property>
            <name>dfs.namenode.shared.edits.dir</name>
        <value>qjournal://hadoop102:8485;hadoop103:8485;hadoop104:8485/mycluster</value>
        </property>
    
        <!-- 配置隔离机制,即同一时刻只能有一台服务器对外响应 -->
        <property>
            <name>dfs.ha.fencing.methods</name>
            <value>sshfence</value>
        </property>
    
        <!-- 使用隔离机制时需要ssh无秘钥登录-->
        <property>
            <name>dfs.ha.fencing.ssh.private-key-files</name>
            <value>/home/corp/.ssh/id_rsa</value>
        </property>
    
        <!-- 声明journalnode服务器存储目录-->
        <property>
            <name>dfs.journalnode.edits.dir</name>
            <value>/opt/hadoop-2.7.2/data/jn</value>
        </property>
    
        <!-- 关闭权限检查-->
        <property>
            <name>dfs.permissions.enable</name>
            <value>false</value>
        </property>
    
        <!-- 访问代理类:client,mycluster,active配置失败自动切换实现方式-->
        <property>
              <name>dfs.client.failover.proxy.provider.mycluster</name>
        <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
        </property>
    </configuration>
    

    再将我们的配置分发到各个节点上去。

    配置HDFS-HA自动故障转移

    (1)在hdfs-site.xml中增加

    <property>
        <name>dfs.ha.automatic-failover.enabled</name>
        <value>true</value>
    </property>
    

    (2)在core-site.xml文件中增加

    <property>
        <name>ha.zookeeper.quorum</name>
        <value>hadoop102:2181,hadoop103:2181,hadoop104:2181</value>
    </property>
    

    1)关闭所有HDFS服务:

    sbin/stop-dfs.sh
    

    (2)启动Zookeeper集群:

    bin/zkServer.sh start
    

    (3)初始化HA在Zookeeper中状态:

    bin/hdfs zkfc -formatZK
    

    (4)启动HDFS服务:

    sbin/start-dfs.sh
    

    (5)在各个NameNode节点上启动DFSZK Failover Controller,先在哪台机器启动,哪个机器的NameNode就是Active NameNode

    sbin/hadoop-daemin.sh start zkfc
    

    配置Yarn-HA

    Yarn-HA的工作机制:
    yarn-ha
    配置 yarn-site.xml 文件

    <configuration>
    
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
    
        <!--启用resourcemanager ha-->
        <property>
            <name>yarn.resourcemanager.ha.enabled</name>
            <value>true</value>
        </property>
        <!--声明两台resourcemanager的地址-->
        <property>
            <name>yarn.resourcemanager.cluster-id</name>
            <value>cluster-yarn1</value>
        </property>
        <property>
            <name>yarn.resourcemanager.ha.rm-ids</name>
            <value>rm1,rm2</value>
        </property>
        <property>
            <name>yarn.resourcemanager.hostname.rm1</name>
            <value>hadoop102</value>
        </property>
        <property>
            <name>yarn.resourcemanager.hostname.rm2</name>
            <value>hadoop103</value>
        </property>
        <!--指定zookeeper集群的地址-->
        <property>
            <name>yarn.resourcemanager.zk-address</name>
            <value>hadoop102:2181,hadoop103:2181,hadoop104:2181</value>
        </property>
        <!--启用自动恢复-->
        <property>
            <name>yarn.resourcemanager.recovery.enabled</name>
            <value>true</value>
        </property>
        <!--指定resourcemanager的状态信息存储在zookeeper集群--> 
        <property>
            <name>yarn.resourcemanager.store.class</name>     <value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value>
    </property>
    
    </configuration>
    

    启动HDFS
    (1)在各个JournalNode节点上,输入以下命令启动journalnode服务:

    sbin/hadoop-daemon.sh start journalnode
    

    (2)在[nn1]上,对其进行格式化,并启动:

    bin/hdfs namenode -format
    sbin/hadoop-daemon.sh start namenode
    

    (3)在[nn2]上,同步nn1的元数据信息:

    bin/hdfs namenode -bootstrapStandby
    

    (4)启动[nn2]:

    sbin/hadoop-daemon.sh start namenode
    

    (5)启动所有DataNode

    sbin/hadoop-daemons.sh start datanode
    

    (6)将[nn1]切换为Active

    bin/hdfs haadmin -transitionToActive nn1
    

    启动YARN
    (1)在hadoop102中执行:

    sbin/start-yarn.sh
    

    (2)在hadoop103中执行:

    sbin/yarn-daemon.sh start resourcemanager
    

    (3)查看服务状态

    bin/yarn rmadmin -getServiceState rm1
    
  • 相关阅读:
    跨域访问方法列举 jsonp 和 客户端
    session 垃圾回收机制
    php 根据数据权重,得分或者持有数量等进行均衡分配给定数量分配方法
    进程和线程比较
    redis 过期策略分析
    redis 基础知识详解
    tcp/ip 协议
    ip 协议详解
    php redis 分布式类
    nginx打开目录游览功能
  • 原文地址:https://www.cnblogs.com/sun-iot/p/12168038.html
Copyright © 2011-2022 走看看