zoukankan      html  css  js  c++  java
  • Sqoop的安装配置及使用

    一、Sqoop基础:连接关系型数据库与Hadoop的桥梁

    1.1 Sqoop的基本概念  

      Hadoop正成为企业用于大数据分析的最热门选择,但想将你的数据移植过去并不容易。Apache Sqoop正在加紧帮助客户将重要数据从数据库移到Hadoop。随着Hadoop和关系型数据库之间的数据移动渐渐变成一个标准的流程,云管理员们能够利用Sqoop的并行批量数据加载能力来简化这一流程,降低编写自定义数据加载脚本的需求。

      Apache SqoopSQL-to-Hadoop) 项目旨在协助 RDBMS 与 Hadoop 之间进行高效的大数据交流。用户可以在 Sqoop 的帮助下,轻松地把关系型数据库的数据导入到 Hadoop 与其相关的系统 (如HBase和Hive)中;同时也可以把数据从 Hadoop 系统里抽取并导出到关系型数据库里。因此,可以说Sqoop就是一个桥梁,连接了关系型数据库与Hadoop。

    1.2 Sqoop的基本机制

      Sqoop中一大亮点就是可以通过hadoop的mapreduce把数据从关系型数据库中导入数据到HDFS。Sqoop架构非常简单,其整合了Hive、Hbase和Oozie,通过map-reduce任务来传输数据,从而提供并发特性和容错。Sqoop的基本工作流程如下图所示:

      Sqoop在import时,需要制定split-by参数。Sqoop根据不同的split-by参数值来进行切分,然后将切分出来的区域分配到不同map中。每个map中再处理数据库中获取的一行一行的值,写入到HDFS中(由此也可知,导入导出的事务是以Mapper任务为单位)同时split-by根据不同的参数类型有不同的切分方法,如比较简单的int型,Sqoop会取最大和最小split-by字段值,然后根据传入的num-mappers来确定划分几个区域。 比如select max(split_by),min(split-by) from得到的max(split-by)和min(split-by)分别为1000和1,而num-mappers为2的话,则会分成两个区域(1,500)和(501-100),同时也会分成2个sql给2个map去进行导入操作,分别为select XXX from table where split-by>=1 and split-by<500和select XXX from table where split-by>=501 and split-by<=1000。最后每个map各自获取各自SQL中的数据进行导入工作。

    二、Sqoop导入

    2.1 Sqoop的安装配置

      (1)下载sqoop安装包:这里使用的是sqoop-1.4.5-cdh5.3.6.tar.gz版本。(下载:http://archive.cloudera.com/cdh5/cdh/5/)

      (2)解压sqoop安装包:tar -zvxf sqoop-1.4.5-cdh5.3.6.tar.gz -C /opt/modules

      (3)设置环境变量:sudu vim /etc/profile ,增加以下内容

    #SQOOP_HOME
    export SQOOP_HOME=/opt/modules/sqoop-1.4.5-cdh5.3.6
    export PATH=$PATH:$SQOOP_HOME/bin

      最后是环境变量生效:source /etc/profile

      (4)将mysql的jdbc驱动mysql-connector-java-5.1.27-bin.jar复制到sqoop项目的lib目录下:

    cp mysql-connector-java-5.1.27-bin.jar /opt/modules/sqoop-1.4.5-cdh5.3.6/lib

      (5)重命名配置文件:在${SQOOP_HOME}/conf中执行命令

    mv sqoop-env-template.sh sqoop-env.sh

        (6)【可选】修改配置文件:vim sqoop-env.sh 

    # Set Hadoop-specific environment variables here.

    #Set path to where bin/hadoop is available
    export HADOOP_COMMON_HOME=/opt/modules/hadoop-2.5.0-cdh5.3.6

    #Set path to where hadoop-*-core.jar is available
    export HADOOP_MAPRED_HOME=/opt/modules/hadoop-2.5.0-cdh5.3.6

    #set the path to where bin/hbase is available
    #export HBASE_HOME=

    #Set the path to where bin/hive is available
    export HIVE_HOME=/opt/modules/hive-0.13.1-cdh5.3.6

    #Set the path for where zookeper config dir is
    #export ZOOCFGDIR=

             (7)  启动Sqoop (/opt/modules/sqoop-1.4.5-cdh5.3.6目录下执行bin/sqoop help)

            红色标注部分为Sqoop的所有命令,具体查看可以通过bin/sqoop help 加字段的方式来查看。例如:bin/sqoop help import

    Warning: /opt/modules/sqoop-1.4.5-cdh5.3.6/../hbase does not exist! HBase imports will fail.
    Please set $HBASE_HOME to the root of your HBase installation.
    Warning: /opt/modules/sqoop-1.4.5-cdh5.3.6/../hcatalog does not exist! HCatalog jobs will fail.
    Please set $HCAT_HOME to the root of your HCatalog installation.
    Warning: /opt/modules/sqoop-1.4.5-cdh5.3.6/../accumulo does not exist! Accumulo imports will fail.
    Please set $ACCUMULO_HOME to the root of your Accumulo installation.
    Warning: /opt/modules/sqoop-1.4.5-cdh5.3.6/../zookeeper does not exist! Accumulo imports will fail.
    Please set $ZOOKEEPER_HOME to the root of your Zookeeper installation.
    18/03/01 10:57:23 INFO sqoop.Sqoop: Running Sqoop version: 1.4.5-cdh5.3.6
    usage: sqoop COMMAND [ARGS]

    Available commands:
    codegen Generate code to interact with database records
    create-hive-table Import a table definition into Hive
    eval Evaluate a SQL statement and display the results
    export Export an HDFS directory to a database table
    help List available commands
    import Import a table from a database to HDFS
    import-all-tables Import tables from a database to HDFS
    import-mainframe Import datasets from a mainframe server to HDFS
    job Work with saved jobs
    list-databases List available databases on a server
    list-tables List available tables in a database
    merge Merge results of incremental imports
    metastore Run a standalone Sqoop metastore
    version Display version information

    See 'sqoop help COMMAND' for information on a specific command.

    2.2 数据导入:MySQL->HDFS

      这里假设我们已经在hadoop-master服务器中安装了MySQL数据库服务,并使用默认端口3306。需要注意的是,sqoop的数据库驱动driver默认只支持mysql和oracle,如果使用sqlserver的话,需要把sqlserver的驱动jar包放在sqoop的lib目录下,然后才能使用drive参数。

      (1)MySQL数据源:mysql中的hive数据库的Person_info表,这里使用学习笔记17《Hive框架学习》里边Hive的数据库表。

     (2)使用import命令将mysql中的数据导入HDFS:

      首先看看import命令的基本格式:

      sqoop             ##sqoop命令

        import             ##表示导入

        --connect jdbc:mysql://ip:3306/sqoop    ##告诉jdbc,连接mysql的url

        --username root                                     ##连接mysql的用户名

        --password admin                                 ##连接mysql的密码

        --table mysql1                                        ##从mysql导出的表名称

        --fields-terminated-by ' '                        ##指定输出文件中的行的字段分隔符

        -m 1                                                       ##复制过程使用1个map作业

        --hive-import                                          ##把mysql表数据复制到hive空间中。如果不使用该选项,意味着复制到hdfs中 

      然后看看如何进行实战:这里将mysql中的Person_info表导入到hdfs中(/user/liupeng/sqoop/Person_Info/mysql_to_HDFS)

           为了更高效的显示成果,我们把sqoop的语句写到一个文件中格式如下(文件地址:/opt/datas/sqoop_Demo/per_info_mysql_to_HDFS.sql)

    import
    --connect
    jdbc:mysql://127.0.0.1:3306/liupeng
    --username
    root
    --password
    123456
    --table
    person_info
    --target-dir
    /user/liupeng/sqoop/Person_Info/mysql_to_HDFS
    --num-mappers
    1

      最后看看是否成功导入了HDFS中:可以看到Person_info表存入了1个map任务所生成的文件中,那是因为上述语句中--num-mappers指定了生成map的个数是1个。如果不指定会生成多个。如果数据量过大的情况下不建议设置为1

           以下为Hue集成HDFS文件系统的地址及文件内容。实际上Hadoop HDFS相同路径下也同样存在相同文件。

    2.3 数据导出:HDFS->MySQL

      (1)既然要导出到MySQL,那么首先得要有一张接收从HDFS导出数据的表。这里为了示范,还拿上面这个数据作例子。把已经存在HDFS上的Person_info数据重新export到mysql 数据库中的test表里。

      (2)使用export命令进行将数据从HDFS导出到MySQL中,可以看看export命令的基本格式。同inport案例相同。我们把数据放到一个文件中然后通过bin/sqoop --options-file 文件路径 的方式去传输数据。

    export
    --connect
    jdbc:mysql://127.0.0.1:3306/liupeng
    --username
    root
    --password
    123456
    --table
    test
    --export-dir
    /user/liupeng/sqoop/Person_Info/mysql_to_HDFS

    注意:导出的数据表必须是事先存在的。而且格式必须跟HDFS文件系统要导出数据的文件格式相同才可以。

     (3)export实战:将HDFS中的Person_info导出到mysql中的test数据表中。最后查看是否导入到了mysql中的TEST_IDS数据表中:

          下列如图所视,数据已经导入到mysql 数据库的test表中了。至于为什么id的顺序是错开的,此处不作具体说明。可以通过sqoop的语句指定更详细的数据传输语句来解决这个问题。

    2.4 数据导入:Hive->MySQL,MySQL-> Hive

      (1)Sqoop的强大之处不仅仅局限与关系型数据库跟HDFS文件系统之间的正反导入导出。也支持大数据仓库Hive到Mysql及Mysql到Hive等的数据传输。接下来看2个案例分别演示mysql --> Hive, Hive -->Mysql的数据传输。至于其他数据库入HBase等的案例在日后学习过程中更新。

    案例1: Hive->MySQL

    export
    --connect
    jdbc:mysql://127.0.0.1:3306/liupeng
    --username
    root
    --password
    123456
    --table
    test
    --export-dir
    /user/hive/warehouse/liupeng.db/test
    --fields-terminated-by
    '	'
    --num-mappers
    1
    

    在此必须提前声明的是--table test 为mysql 中的test 表。而/user/hive/warehouse/liupeng.db/test是HDFS上的路径而不是本地Local的路径。在/user/hive/warehouse/liupeng.db/test目录下必须有文件(hive中的表)。如果没有必须事先通过hadoop的put命令先上传到HDFS文件系统只上。

    (2)在 sqoop目录下通过 /bin/sqoop  --options-file /opt/datas/sqoop_Demo/test_hive_to_mysql.sql 的方式去运行数据传输。

    (3)最终查看数据是否已经成功导入到hive的test 表中。

     案例2: MySQL  --> Hive

    (1) 首先在MySQL中把要准备的数据表准备好

    (2) 同样在hive中创建与MySQL数据表字段格式相同的表。(格式必须相同)

         因为我们这里还是拿上面Person_info种的数据作例子。因此在hive中要创建相同字段的表格。然后最后用‘ ’的方式指定表格式。

    hive> create table person_info(
        > id int,
        > name string,
        > gender string,
        > birthday string,
        > address string,
        > nation string)row format delimited fields terminated by'	';

    (3) 数据准备好之后,把下列语句存放到/opt/datas/sqoop_Demo/mysql_to_hive.sql文件中。方便sqoop目录下bin/sqoop --options-file 命令的调用。

    import
    --connect 
    jdbc:mysql://127.0.0.1:3306/liupeng
    --username 
    root
    --password 
    123456
    --table 
    person_test
    --fields-terminated-by 
    '	'
    --delete-target-dir
    --num-mappers 
    1
    --hive-import
    --hive-database 
    liupeng
    --hive-table 
    person_info
    

    (4)  查看数据是否已经正常显示在Hive的person_info表中。(此处同样通过Hue的web界面展示)

    2.5 数据导入:部分字段的导入

    (1) 以上的案例已经充分的证明了sqoop功能的强大,当然不光可以实现关系形数据库和Hadoop HDFS,Hive之间的正反数据表的导入导出,同时同MySQL语句一样,也支持部分字段的导入导出。这里只作一个案例展示。

    案例:

    <1> 同样在/opt/datas/sqoop_Demo目录下准备一个文件,编辑要传输的sqoop语句。此处命名为perinfo_columns_to_HDFS.sql

    import
    --connect 
    jdbc:mysql://127.0.0.1:3306/liupeng
    --username 
    root
    --password 
    123456
    --table 
    person_info
    --target-dir 
    /user/liupeng/sqoop/sqlcolumns_to_HDFS/Person_info_test
    --num-mappers 
    1
    --columns 
    id,name,gender,address

    <2>  在sqoop目录下执行 bin/sqoop --options-file /opt/datas/sqoop_Demo/perinfo_columns_to_HDFS.sql

    <3>  在HDFS文件系统 /user/liupeng/sqoop/sqlcolumns_to_HDFS/Person_info_test目录下查看是否文件被导入进来。此处通过Hue界面展示

    2.6 数据导入:Query

    对于上述MySQL数据表部分数据导入到HDFS文件系统上的方法。还可以通过Sqoop 中Query语句方法来实现。而这个方法更像我们MySQL数据中的语句直接来使用。一起看一下下列的案例。

    案例

    <1> Query 文件的编写。同上目录下创建query_to_HDFS.sql文件并编写语句

    import
    --connect 
    jdbc:mysql://127.0.0.1:3306/liupeng
    --username 
    root
    --password 
    123456
    --query 
    select id,name from person_info where $CONDITIONS
    --target-dir  
    /user/liupeng/sqoop/query/Person_info
    --num-mappers 
    1
    

    <2> 同样在Sqoop目录下执行 --options-file 指定该文件

    <3> 查看结果(Hue界面下查看)

    另外补充一句,如果select 语句选择字段同时想要加入where条件的话请在句末添加如下。

    import
    --connect
    jdbc:mysql://127.0.0.1:3306/liupeng
    --username
    root
    --password
    123456
    --query
    select id,name,address from person_info where $CONDITIONS and id >5 and id<21
    --target-dir
    /user/liupeng/sqoop/query/Person_info
    --num-mappers
    1

    查看结果

    以上为Sqoop的基本命令使用。当然Sqoop的强大功能远不仅如此。实际工作中按照不同的需求来选择不同的方式来进行数据的导入导出。具体细节方法可以参照Sqoop的官网及API。

  • 相关阅读:
    base加密解密工具类
    根据银行卡号判断所属银行(部分资源网上抄录)
    input autocomplete属性设计输入框自动联想(php实现)
    XFire+Spring构建Web Service经验总结
    php学习手记(持续更新)
    ios上遇到的坑(持续更新)
    随笔
    HTML5微信长按图片不会弹出菜单的解决方法
    能在编辑器里面写出的字符
    css文本两端对齐,分散对齐
  • 原文地址:https://www.cnblogs.com/liupengpengg/p/8487423.html
Copyright © 2011-2022 走看看