zoukankan      html  css  js  c++  java
  • 【HDFS篇03】HDFS客户端操作 --- 开发环境准备

    存储越困难,提取越容易

    HDFS客户端操作---开发环境准备

    步骤一:编译对应HadoopJar包,配置Hadoop变量

    image-20200622092736684

    步骤二:创建Maven工程,导入pom依赖

    <dependencies>
    		<dependency>
    			<groupId>junit</groupId>
    			<artifactId>junit</artifactId>
    			<version>RELEASE</version>
    		</dependency>
    		<dependency>
    			<groupId>org.apache.logging.log4j</groupId>
    			<artifactId>log4j-core</artifactId>
    			<version>2.8.2</version>
    		</dependency>
    		<dependency>
    			<groupId>org.apache.hadoop</groupId>
    			<artifactId>hadoop-common</artifactId>
    			<version>2.7.2</version>
    		</dependency>
    		<dependency>
    			<groupId>org.apache.hadoop</groupId>
    			<artifactId>hadoop-client</artifactId>
    			<version>2.7.2</version>
    		</dependency>
    		<dependency>
    			<groupId>org.apache.hadoop</groupId>
    			<artifactId>hadoop-hdfs</artifactId>
    			<version>2.7.2</version>
    		</dependency>
    </dependencies>
    

    步骤三:创建日志文件

    在resources目录下创建log4j.properties,输入如下信息

    log4j.rootLogger=INFO, stdout
    log4j.appender.stdout=org.apache.log4j.ConsoleAppender
    log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
    log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
    log4j.appender.logfile=org.apache.log4j.FileAppender
    log4j.appender.logfile.File=target/spring.log
    log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
    log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
    

    步骤四:创建HDFSClient类

    public class HDFSClient{	
    
    @Test
    public void testMkdirs() throws IOException, InterruptedException, URISyntaxException{
    		
    		// 1 获取文件系统
    		Configuration configuration = new Configuration();
    
    		// 2 连接集群
    		FileSystem fs = FileSystem.get(new URI("hdfs://hadoop102:9000"), configuration, "zhutiansama");
    		
    		// 3 创建目录
    		fs.mkdirs(new Path("/1108/daxian/banzhang"));
    		
    		// 4 关闭资源
    		fs.close();
    	}
    }
    

    ​ 客户端去操作HDFS时,是有一个用户身份的。默认情况下,HDFS客户端API会从JVM中获取一个参数来作为自己的用户身份:-DHADOOP_USER_NAME=zhutiansama,zhutiansama为用户名称。至此Hadoop的Win开发环境搭建完成,大家可以通过API去操作Hadoop啦

    相关资料

    1

    本文配套GitHubhttps://github.com/zhutiansama/FocusBigData

  • 相关阅读:
    数据结构笔记
    并查集
    计算两个数的最大公约数和最小公倍数
    行盒
    浏览器兼容性和布局
    Java中HashMap等的实现要点浅析
    关于js异步上传文件
    填充路径时所使用的 “非零环绕规则”
    XP极限编程
    假如森林里有一棵树倒下了
  • 原文地址:https://www.cnblogs.com/focusbigdata/p/13231221.html
Copyright © 2011-2022 走看看