zoukankan      html  css  js  c++  java
  • HADOOP之HDFS环境搭建(一)

    单机环境搭建

    安装
        mkdir /opt/bigdata
        tar xf hadoop-2.6.5.tar.gz
        mv hadoop-2.6.5  /opt/bigdata/
        pwd
            /opt/bigdata/hadoop-2.6.5
        
        vi /etc/profile    
            export  JAVA_HOME=/usr/java/default
            export HADOOP_HOME=/opt/bigdata/hadoop-2.6.5
            export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
        source /etc/profile
    配置hadoop的角色:
        cd   $HADOOP_HOME/etc/hadoop
            必须给hadoop配置javahome要不ssh过去找不到
        vi hadoop-env.sh
            export JAVA_HOME=/usr/java/default
            给出NN角色在哪里启动
        vi core-site.xml
                <property>
                    <name>fs.defaultFS</name>
                    <value>hdfs://node01:9000</value>
                </property>
            配置hdfs  副本数为1.。。。
        vi hdfs-site.xml
                <property>
                    <name>dfs.replication</name>
                    <value>1</value>
                </property>
                <property>
                    <name>dfs.namenode.name.dir</name>
                    <value>/var/bigdata/hadoop/local/dfs/name</value>
                </property>
                <property>
                    <name>dfs.datanode.data.dir</name>
                    <value>/var/bigdata/hadoop/local/dfs/data</value>
                </property>
                <property>
                    <name>dfs.namenode.secondary.http-address</name>
                    <value>node01:50090</value>
                </property>
                <property>
                    <name>dfs.namenode.checkpoint.dir</name>
                    <value>/var/bigdata/hadoop/local/dfs/secondary</value>
                </property>
    
    
            配置DN这个角色再那里启动
        vi slaves
            node01
    
    

    初始化&启动:
    
        hdfs namenode -format  
            创建目录
            并初始化一个空的fsimage
            VERSION
                CID
        
        start-dfs.sh
            第一次:datanode和secondary角色会初始化创建自己的数据目录
            
        http://node01:50070
            修改windows: C:WindowsSystem32driversetchosts
                192.168.150.11 node01
                192.168.150.12 node02
                192.168.150.13 node03
                192.168.150.14 node04

    格式化成功:

    格式化后:只创建的name目录

    启动dfs后:

    
    

    简单使用:
        hdfs dfs -mkdir /bigdata
        hdfs dfs -mkdir  -p  /user/root
    
    


    验证知识点:
        cd   /var/bigdata/hadoop/local/dfs/name/current
            观察 editlog的id是不是再fsimage的后边
        cd /var/bigdata/hadoop/local/dfs/secondary/current
            SNN 只需要从NN拷贝最后时点的FSimage和增量的Editlog
    
    
        hdfs dfs -put hadoop*.tar.gz  /user/root
        cd  /var/bigdata/hadoop/local/dfs/data/current/BP-281147636-192.168.150.11-1560691854170/current/finalized/subdir0/subdir0
            
    
        for i in `seq 100000`;do  echo "hello hadoop $i"  >>  data.txt  ;done
        hdfs dfs -D dfs.blocksize=1048576  -put  data.txt 
        cd  /var/bigdata/hadoop/local/dfs/data/current/BP-281147636-192.168.150.11-1560691854170/current/finalized/subdir0/subdir0
        检查data.txt被切割的块,他们数据什么样子

     文件被切割后的样子:

    注意点:

    • 一定要同步时间
    • 一定要关闭防火墙,
    • 如果先启动hdfs,在关闭防火墙或者同步时间,就会启动不起来dataNode,解决方式: 1.关闭hdfs、 2.删除目录 /var/bigdata/hadoop/local/dfs下所有的文件、 3.重新格式化文件、 4.重新启动

    启动成功后editslog和fsimage

    jps进程信息:成功启动dataNode、nameNode、secondary

  • 相关阅读:
    《C#并发编程经典实例》学习笔记—2.4 等待一组任务完成
    Captcha服务(后续2)— 改造Captcha服务之Asp.Net Core项目中如何集成TypeScript
    VS Code调试.Net Core版Hello World
    Visual Studio Code 语言设置
    Captcha服务(后续1)
    css——格式
    作业 5/13
    css选择器
    作业 5/12
    前端——表格标签,表单标签,css
  • 原文地址:https://www.cnblogs.com/bigdata-familyMeals/p/14071695.html
Copyright © 2011-2022 走看看