zoukankan      html  css  js  c++  java
  • Hadoop配置

    Hadoop配置

    一、配置jdk

    二、配置ssh及免密登录

    三、上传hadoop2.6.4.tar.gz文件到linux1

    四、创建安装目录,并把hadoop2.6.4.tar.gz文件解压到目录中

    下载地址:http://hadoop.apache.org/releases.html

    命令:tar -zxvf hadoop-2.6.4.tar.gz 

    我的解压目录:/root/app/hadoop

    五、配置hadoop环境变量

    vi /etc/profile

    配置hadoop的路径

    export JAVA_HOME=/root/app/jdk/jdk1.8.0_152
    export HADOOP_HOME=/root/app/hadoop/hadoop-2.6.4
    export PATH=$PATH:$JAVA_HOME/bin
    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

    使环境变量生效

    source /etc/profile

    六、进入hadoop配置文件目录

    [root@linux1 hadoop]# cd /root/app/hadoop/hadoop-2.6.4/etc/hadoop/
    [root@linux1 hadoop]# ll
    总用量 152
    -rw-r--r--. 1 root root  4436 5月  24 2017 capacity-scheduler.xml
    -rw-r--r--. 1 root root  1335 5月  24 2017 configuration.xsl
    -rw-r--r--. 1 root root   318 5月  24 2017 container-executor.cfg
    -rw-r--r--. 1 root root   963 12月 25 23:46 core-site.xml
    -rw-r--r--. 1 root root  3670 5月  24 2017 hadoop-env.cmd
    -rw-r--r--. 1 root root  4238 12月 25 23:49 hadoop-env.sh
    -rw-r--r--. 1 root root  2598 5月  24 2017 hadoop-metrics2.properties
    -rw-r--r--. 1 root root  2490 5月  24 2017 hadoop-metrics.properties
    -rw-r--r--. 1 root root  9683 5月  24 2017 hadoop-policy.xml
    -rw-r--r--. 1 root root   775 5月  24 2017 hdfs-site.xml
    -rw-r--r--. 1 root root  1449 5月  24 2017 httpfs-env.sh
    -rw-r--r--. 1 root root  1657 5月  24 2017 httpfs-log4j.properties
    -rw-r--r--. 1 root root    21 5月  24 2017 httpfs-signature.secret
    -rw-r--r--. 1 root root   620 5月  24 2017 httpfs-site.xml
    -rw-r--r--. 1 root root  3523 5月  24 2017 kms-acls.xml
    -rw-r--r--. 1 root root  1325 5月  24 2017 kms-env.sh
    -rw-r--r--. 1 root root  1631 5月  24 2017 kms-log4j.properties
    -rw-r--r--. 1 root root  5511 5月  24 2017 kms-site.xml
    -rw-r--r--. 1 root root 11291 5月  24 2017 log4j.properties
    -rw-r--r--. 1 root root   938 5月  24 2017 mapred-env.cmd
    -rw-r--r--. 1 root root  1383 5月  24 2017 mapred-env.sh
    -rw-r--r--. 1 root root  4113 5月  24 2017 mapred-queues.xml.template
    -rw-r--r--. 1 root root   844 12月 25 23:50 mapred-site.xml.template
    -rw-r--r--. 1 root root    21 12月 26 00:10slaves
    -rw-r--r--. 1 root root  2316 5月  24 2017 ssl-client.xml.example
    -rw-r--r--. 1 root root  2268 5月  24 2017 ssl-server.xml.example
    -rw-r--r--. 1 root root  2237 5月  24 2017 yarn-env.cmd
    -rw-r--r--. 1 root root  4567 5月  24 2017 yarn-env.sh
    -rw-r--r--. 1 root root   888 12月 25 23:53 yarn-site.xml

    七、配置五个文件

    7.1core-site.xml

    <configuration>
        <property>   
            <name>fs.defaultFS</name>
            <value>hdfs://linux1:9000</value>
        </property>
        <property>
            <name>hadoop.tmp.dir</name>
            <value>/root/app/hadoop/hadoopdata</value>
        </property> 
    </configuration>

    7.2 hadoop-env.sh

    # The java implementation to use.
    export JAVA_HOME=/root/app/jdk/jdk1.8.0_152

    7.3 mapred-site.xml.template

    <configuration>
        <property>  
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property> 
    </configuration>

     将模版重命名

    mv mapred-site.xml.template mapred-site.xml

    7.4 yarn-site.xml

    <configuration>
        <property>
            <name>yarn.resourcemanager.hostname</name>
            <value>linux1</value>
        </property>
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
    </configuration>

    yarn的主节点在生产环境下和hdfs的主节点是分开的

    yarn的从节点和hdfs的从节点在生产环境下是放在同一台机器上

    7.5 slaves

    这里只配置从节点

    八、把配置好的hadoop文件发到所有的从节点

     新建patch.sh文件

    #!/bin/bash
    for((i=2;i<5;i++))
    do
        scp -r /etc/profile root@linux$i:/etc/profile
        scp -r /root/app/hadoop root@linux$i:/root/app/hadoop
    done

    给文件授权,让它变成可执行

    chmod u+x patch.sh

     执行脚本

    ./patch.sh 

    九、格式化hdfs,关闭防火墙,启动hdfs

    hadoop namenode –format
    service  iptables stop
    start-dfs.sh

    浏览器输入:http://linux1:50070

     

    十、介绍几个命令

    -help            

    功能:输出这个命令参数手册

    -ls                 

    功能:显示目录信息

    示例: hadoop fs -ls hdfs://linux1:9000/

    备注:这些参数中,所有的hdfs路径都可以简写

    -->hadoop fs -ls /   等同于上一条命令的效果

    -mkdir              

    功能:在hdfs上创建目录

    示例:hadoop fs  -mkdir  -p  /aaa/bbb/cc/dd

    -moveFromLocal           

    功能:从本地剪切粘贴到hdfs

    示例:hadoop  fs  -moveFromLocal  /home/hadoop/a.txt  /aaa/bbb/cc/dd

    -moveToLocal             

    功能:从hdfs剪切粘贴到本地

    示例:hadoop  fs  -moveToLocal   /aaa/bbb/cc/dd  /home/hadoop/a.txt

    --appendToFile 

    功能:追加一个文件到已经存在的文件末尾

    示例:hadoop  fs  -appendToFile  ./hello.txt  hdfs://linux1:9000/hello.txt

    可以简写为:

    Hadoop  fs  -appendToFile  ./hello.txt  /hello.txt

    -cat 

    功能:显示文件内容 

    示例:hadoop fs -cat  /hello.txt

    -tail                

    功能:显示一个文件的末尾

    示例:hadoop  fs  -tail  /weblog/access_log.1

    -text                 

    功能:以字符形式打印一个文件的内容

    示例:hadoop  fs  -text  /weblog/access_log.1

    手册:http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_shell.html#FS+Shell

  • 相关阅读:
    4.20 每日一练
    4.19 每日一练
    4.18 每日一练
    Python函数初
    Python的文件操作
    python购物车
    python深浅拷贝,集合以及数据类型的补充
    Python 代码块 小数据池
    Python字典
    Python 列表操作
  • 原文地址:https://www.cnblogs.com/xiaoaofengyue/p/8110372.html
Copyright © 2011-2022 走看看