zoukankan      html  css  js  c++  java
  • [Hadoop]-HDFS-伪分布式部署-hadoop-2.6.0-cdh5.7.0

    前文  已经完成了编译,接下来就是部署了

    这里部署还是采用伪分布式部署,硬件条件没办法,我的破机器内存实在是拖不起三台,只能装一台用伪分布式了.

    1.基本安装

      找到我们刚才编译好的安装包 

      拷贝出来 #cp ./hadoop-2.8.1.tar.gz /etc/software

      老规矩

        解压 #tar -xzvf ~/software/hadoop-2.6.0-cdh5.7.0.tar.gz -C ~/app

        配置环境变量

          export HADOOP_HOME=/home/hadoop/app/hadoop-2.6.0-cdh5.7.0

          export PATH=$HADOOP_HOME/bin:$PATH

      保存应用  

      试验下 #which hadoop

        

    2.配置SSL免密登录

    先给Root加

    #cd ~

    #ssh-keyge

    #cd .ssh

    #cat id_rsa.pub >> authorized_keys

    可以看到除了第一次需要确认yes之后,后面继续访问都会直接通过了

    再给Hadoop用户加

    先切到hadoop用户去 #su - hadoop

    #cd ~

    #ssh-keygen

    #cd .ssh

    #cat id_rsa.pub >> authorized_keys

    #chmod 600 authorized_keys

    切记如果是非管理员用户设置,必须执行红色部分提权,否则会报权限问题设置不成功,切记切记

    设置成功

    3.配置 core-site.xml

      #vi ~/app/hadoop-2.6.0-cdh5.7.0/etc/hadoop/core-site.xml

    <property>
      <name>fs.defaultFS</name>
      <value>hdfs://hadoop000:9000</value>
    </property>

    <property>
      <name>hadoop.tmp.dir</name>
      <value>/home/hadoop/tmp</value>
    </property>

    4.配置 hdfs-site.xml

      #vi ~/app/hadoop-2.6.0-cdh5.7.0/etc/hadoop/hdfs-site.xml

    <property>
      <name>dfs.replication</name>
      <value>1</value>
    </property>
    <property>
      <name>dfs.namenode.secondary.http-address</name>
      <value>hadoop000:50090</value>
    </property>
    <property>
      <name>dfs.namenode.secondary.https-address</name>
      <value>hadoop000:50091</value>
    </property>

    5.配置 slaves

      #vi ~/app/hadoop-2.6.0-cdh5.7.0/etc/hadoop/slaves

    hadoop000

     5.配置hadoop-env.sh

      #vi ~/app/hadoop-2.6.0-cdh5.7.0/etc/hadoop/hadoop-env.sh

      修改如下:

        export JAVA_HOME=/home/hadoop/app/jdk1.8.0_45

      手工设置下Java路径,这里似乎是有BUG,读取不到配置的Java路径,

    5.启动HDFS

      HDFS本质上是个文件系统,就好像Windows的磁盘一样,肯定需要格式化再使用的

      #hdfs namenode -format

      OK 启动吧

      #~/app/hadoop-2.6.0-cdh5.7.0/sbin/start-dfs.sh

      

      开发环境

        设置 mapred-default.xml 

          mapreduce.client.submit.file.replication 为1(默认10)  这是提交作业的jar存放副本数.因为开发环境一般副本数都是1(机器可能都只1个),这里默认10会导致副本数不足,造成每次都进SafeMode

  • 相关阅读:
    Linux-第一天
    Hadoop学习10--常用命令记录帖
    C# asp.net repeater实现排序功能,自动排序,点击头部排序,点击列排序
    图片与字符之间的转换
    兼容浏览器 div固定浏览器窗口底部 浮动div
    解决QQ未启用状态,QQ留言图标未启用
    C#Cookie操作类,删除Cookie,给Cookie赋值
    vs2008bin下Debug bll Release文件 obj下的Debug bll Release文件区别
    asp.net限制了上传文件大小为..M,解决方法
    多文件上传ajax jquery
  • 原文地址:https://www.cnblogs.com/NightPxy/p/9097797.html
Copyright © 2011-2022 走看看