zoukankan      html  css  js  c++  java
  • sqoop简单配置与使用

     

    sqoop(sql-to-hadoop)   

    Apache Sqoop是用来实现结构型数据(如关系数据库)和Hadoop之间进行数据迁移的工具。它充分利用了MapReduce的并行特点以批处理的方式加快数据的传输,同时也借助MapReduce实现了容错。

      可以把数据从hdfs倒到mysql
      也可以把数据从
      相当于把数据倒来倒去的工具,

    sqoop支持的数据库:

    Database

    version

    --direct support?

    connect string matches

    HSQLDB

    1.8.0+

    No

    jdbc:hsqldb:*//

    MySQL

    5.0+

    Yes

    jdbc:mysql://

    Oracle

    10.2.0+

    No

    jdbc:oracle:*//

    PostgreSQL

    8.3+

    Yes (import only)

    jdbc:postgresql:/

    配置

      1.开启zookeeper

      2.开启集群服务(hadoop等)
      3.上传sqoop并解压

      4.进入目录sqoop下的conf(cd sqoop-1.4.5-cdh5.3.6/conf/)

      5.cp sqoop-env-template.sh sqoop-env.sh

      6.rm -rf *.cmd

      7.修改sqoop-env.sh(HBASE暂时还没有学到,还没有配置,后续会配)

      8.拷贝jdbc驱动到sqoop的lib目录下

          (cp mysql-connector-java-5.1.27-bin.jar /opt/module/sqoop-1.4.5-cdh5.3.6/lib/)

      9.启动sqoop(在sqoop目录下)

        9.1 、bin/sqoop help

        9.2测试Sqoop是否能够连接成功( bin/sqoop list-databases --connect jdbc:mysql://hadoop201:3306/metastore --username root --password 123456)

          

    案例

    一.使用sqoop将mysql中的数据导入到HDFS

    1.确定Mysql服务的正常开启

    2.在Mysql中创建一张表

        

    mysql -uroot -p
    
    mysql> show databses;
    mysql> create database company;
    mysql> use company;
    mysql> create table staff(id int(4) primary key not null auto_increment,name varchar(255) not null,sex varchar(255) not null);
    mysql> show tables;
    mysql> insert into staff(name, sex) values('Thomas', 'Male');

    3.操作数据

      3.1RDBMS --> HDFS

      使用Sqoop导入数据到HDFS

        A、全部导入

          1.现在hadoop下创建个文件夹(bin/hdfs dfs -mkdir /user/company)

          2.进入sqoop目录,执行

    bin/sqoop import --connect jdbc:mysql://hadoop201:3306/company --username root --password 123456 --table staff --target-dir /user/company --delete-target-dir --num-mappers 1 --fields-terminated-by "	"

          也可以写成这种形式(为未写完换行)

                    bin/sqoop import 
                                --connect jdbc:mysql://hadoop201:3306/company 
                                --username root 
                                --password 123456 
                                --table staff 
                                --target-dir /user/company 
                                --delete-target-dir    (如果目录存在则删除目录)
                                --num-mappers 1     (用几个mapper跑这个任务)
                                --fields-terminated-by "	" (用什么分割)

         3.查看(在hadoop目录下    bin/hdfs dfs -cat /user/company/*)

          

      B、根据查询语句结果导入

                     $ bin/sqoop import 
                                 --connect jdbc:mysql://hadoop201:3306/company 
                                 --username root 
                                 --password 123456 
                                 --target-dir /user/company 
                                 --delete-target-dir 
                                 --num-mappers 1 
                                 --fields-terminated-by "	" 
                                 --query 'select name,sex from staff where id >= 2 and $CONDITIONS;'

      C、导入指定列

                                 $ bin/sqoop import 
                                 --connect jdbc:mysql://hadoop201:3306/company 
                                 --username root 
                                 --password 123456 
                                 --target-dir /user/company 
                                 --delete-target-dir 
                                 --num-mappers 1 
                                 --fields-terminated-by "	"
                                 --columns id, sex
                                 --table staff                                

      D、使用sqoop关键字筛选查询导入数据

                     $ bin/sqoop import 
                                 --connect jdbc:mysql://hadoop201:3306/company 
                                 --username root 
                                 --password 123456 
                                 --target-dir /user/company 
                                 --delete-target-dir 
                                 --num-mappers 1 
                                 --fields-terminated-by "	"
                                 --table staff
                                 --where "id=3"

      3.2RDBMS --> Hive

        1.在hive中创建表(不需要提前创建表,会自动创建)

          1.1 在hive目录下  bin/hive

          1.2

    hive (company)> create table staff_hive(id int, name string, sex string) row format delimited fields terminated by '	';

     

      1.3向hive中导入数据

                    $ bin/sqoop import 
                                --connect jdbc:mysql://hadoop201:3306/company 
                                --username root 
                                --password 123456 
                                --table staff 
                                --num-mappers 1 
                                --hive-import 
                                --fields-terminated-by "	" 
                                --hive-overwrite 
                                --hive-table company.staff_hive

       3.3Hive/HDFS --> MYSQL

      1、在Mysql中创建一张表(create table student(id int(4) primary key not null auto_increment,name varchar(255) not null,sex varchar(255) not null,class varchar(255) not null);)

     

      2.

    
    
                    $ bin/sqoop export 
                            --connect jdbc:mysql://hadoo201:3306/company 
                            --username root 
                            --password 123456
                            --table staff_mysql
                            --num-mappers 1 
                            --export-dir /user/hive/warehouse/company.db/staff_hive
                            --input-fields-terminated-by "	"
  • 相关阅读:
    [公告]Google个性化主页可以正常阅读博客园的RSS了
    致歉
    [公告]网站程序已经升级到ASP.NET 2.0
    GTF: Great Teacher Friedman
    Node.js : exports と module.exports の違い
    拨开历史的迷雾从篡夺者战争到五王之战的政经原因
    javascript模板系统 ejs v10
    window.name + postMessage实现不用代理页的跨域通信
    node.js Domain 時代のエラー処理のコーディングパターン
    鲜为人知的get,set操作符
  • 原文地址:https://www.cnblogs.com/jokerq/p/10112375.html
Copyright © 2011-2022 走看看