zoukankan      html  css  js  c++  java
  • Hadoop 配置(3)---使用 HDFS

    伪分布式读取的则是 HDFS 上的数据。要使用 HDFS,首先需要在 HDFS 中创建用户目录:

    1. ./bin/hdfs dfs -mkdir -p /user/hadoop

    接着将 ./etc/hadoop 中的 xml 文件作为输入文件复制到分布式文件系统中,即将 /usr/local/hadoop/etc/hadoop 复制到分布式文件系统中的 /user/hadoop/input 中。

    1. ./bin/hdfs dfs -mkdir input
    2. ./bin/hdfs dfs -put ./etc/hadoop/*.xml input

    查看:

    1. ./bin/hdfs dfs -ls input

    测试:

    1. ./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount input/core-site.xml output/RESULT
    1. ./bin/hdfs dfs -cat output/RESULT/*






  • 相关阅读:
    ctrl+shift+k取消
    ERROR 1872
    swap
    mysql主从跳过错误
    undo
    gtid
    falcon监控指标
    连接数
    datetime与timestamp相互转换
    截取文件内容
  • 原文地址:https://www.cnblogs.com/iathena/p/5615737.html
Copyright © 2011-2022 走看看