当前位置 博文首页 > 文章内容

    Sqoop的安装与使用详细教程

    作者:shunshunshun18 栏目:未分类 时间:2021-04-12 14:44:44

    本站于2023年9月4日。收到“大连君*****咨询有限公司”通知
    说我们IIS7站长博客,有一篇博文用了他们的图片。
    要求我们给他们一张图片6000元。要不然法院告我们

    为避免不必要的麻烦,IIS7站长博客,全站内容图片下架、并积极应诉
    博文内容全部不再显示,请需要相关资讯的站长朋友到必应搜索。谢谢!

    另祝:版权碰瓷诈骗团伙,早日弃暗投明。

    相关新闻:借版权之名、行诈骗之实,周某因犯诈骗罪被判处有期徒刑十一年六个月

    叹!百花齐放的时代,渐行渐远!



    本文我们介绍一个非常好用的数据传输工具——Sqoop。Sqoop是一款开源的工具,主要用于在Hadoop与传统数据库间进行数据的传递,可以将一个关系型数据库(例如:MySQL,Oracle,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。Sqoop项目开始于2009年,最早是作为Hadoop的一个第三方模块存在,后来为了让使用者能够快速部署,也为了让开发人员能够更快速的迭代开发,Sqoop独立成为一个Apache项目。关注专栏《破茧成蝶——大数据篇》,查看更多相关的内容~

    一、Sqoop的安装

    1.1 下载上传安装包

    1、首先下载安装包,点击此处进行下载

    2、将下载的安装包上传到集群中,解压到相关目录并重命名。

    tar -zxvf sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz -C ../modules/
    
    mv sqoop-1.4.6.bin__hadoop-2.0.4-alpha sqoop

    1.2 修改配置文件

    1、首先重命名sqoop-env-template.sh文件

    [root@master conf]# mv sqoop-env-template.sh sqoop-env.sh

    2、在sqoop-env.sh中添加各组件的路径

    export HADOOP_COMMON_HOME=/opt/modules/hadoop-2.7.2
    export HADOOP_MAPRED_HOME=/opt/modules/hadoop-2.7.2
    export HIVE_HOME=/opt/modules/hive
    export ZOOKEEPER_HOME=/opt/modules/zookeeper-3.4.10
    export ZOOCFGDIR=/opt/modules/zookeeper-3.4.10
    export HBASE_HOME=/opt/modules/hbase

    1.3 拷贝JDBC驱动

    拷贝MySQL的驱动包到Sqoop的lib目录下:

    [root@master software]# cp ./mysql-connector-java-5.1.47.jar /opt/modules/sqoop/lib/

    1.4 验证Sqoop是否安装成功

    bin/sqoop help

    出现上图的内容说明安装成功。

    二、Sqoop的导入导出

    2.1 测试连接数据库

    bin/sqoop list-databases --connect jdbc:mysql://master:3306/ --username root --password p@ssw0rd

    2.2 MySQL导入数据到HDFS

    1、首先在MySQL数据库(xzw)中新建一张people表,如下所示:

    create table people(id int(4) primary key not null auto_increment, name varchar(255), sex varchar(255));
    insert into people(name, sex) values('xzw', 'Male');
    insert into people(name, sex) values('fq', 'FeMale');

    2、全量导入

    bin/sqoop import \
    --connect jdbc:mysql://master:3306/xzw \
    --username root \
    --password p@ssw0rd \
    --table people \
    --target-dir /user/sqoop/people \
    --delete-target-dir \
    --num-mappers 1 \
    --fields-terminated-by ","

    使用如下命令查看导入的结果:

    3、查询导入

    bin/sqoop import \
    --connect jdbc:mysql://master:3306/xzw \
    --username root \
    --password p@ssw0rd \
    --target-dir /user/sqoop/people \
    --delete-target-dir \
    --num-mappers 1 \
    --fields-terminated-by "," \
    --query 'select name,sex from people where id <=1 and $CONDITIONS;'

    查看导入结果:

    这里需要注意的是,如果query后使用的是双引号,则$CONDITIONS前必须加转义符\,防止shell识别为自己的变量。如果使用的是单引号,则不需要加。

    4、导入指定列

    bin/sqoop import \
    --connect jdbc:mysql://master:3306/xzw \
    --username root \
    --password p@ssw0rd \
    --target-dir /user/sqoop/people \
    --delete-target-dir \
    --num-mappers 1 \
    --fields-terminated-by "," \
    --columns id,sex \
    --table people

    查看结果:

    这里需要注意的是,columns中如果涉及到多列,用逗号分隔,分隔时不要添加空格。

    5、使用sqoop关键字筛选查询导入数据

    bin/sqoop import \
    --connect jdbc:mysql://master:3306/xzw \
    --username root \
    --password p@ssw0rd \
    --target-dir /user/sqoop/people \
    --delete-target-dir \
    --num-mappers 1 \
    --fields-terminated-by "," \
    --table people \
    --where "id=1"

    查看结果:

    2.3 MySQL导入数据到Hive

    bin/sqoop import \
    --connect jdbc:mysql://master:3306/xzw \
    --username root \
    --password p@ssw0rd \
    --table people \
    --num-mappers 1 \
    --hive-import \
    --fields-terminated-by "," \
    --hive-overwrite \
    --hive-table hive_people

    该过程分为两步,第一步将数据导入到HDFS,第二步将导入到HDFS的数据迁移到Hive仓库。这里需要注意的是,Hive中的表不需要提前创建,Sqoop会在导数据的过程中自动创建表。

    2.4 MySQL导入数据到HBase

    bin/sqoop import \
    --connect jdbc:mysql://master:3306/xzw \
    --username root \
    --password p@ssw0rd \
    --table people \
    --columns "id,name,sex" \
    --column-family "info" \
    --hbase-create-table \
    --hbase-row-key "id" \
    --hbase-table "hbase_people" \
    --num-mappers 1 \
    --split-by id

    这里需要注意的是,需要提前将HBase表建好:

    create 'hbase_people','info'

    2.5 HDFS导出数据到MySQL

    bin/sqoop export \
    --connect jdbc:mysql://master:3306/xzw \
    --username root \
    --password p@ssw0rd \
    --table people \
    --num-mappers 1 \
    --export-dir /user/sqoop/people \
    --input-fields-terminated-by ","

    这里需要注意的是,如果MySQL中不存在表,不会自动创建,简言之就是在执行导出之前需要在MySQL中创建好表。

    三、Sqoop脚本打包

    我们使用opt格式的文件打包Sqoop命令,然后执行,具体如下。

    首先在Sqoop的安装目录新建目录opt,并编写脚本如下:

    export
    --connect
    jdbc:mysql://master:3306/xzw
    --username
    root
    --password
    p@ssw0rd
    --table
    people
    --num-mappers
    1
    --export-dir
    /user/sqoop/people
    --input-fields-terminated-by
    ","

    然后使用如下命令执行脚本:

    bin/sqoop --options-file opt/HDFSToMySQL.opt