0


【头歌】Sqoop数据导出 - 详解

【提示】点击每一关参考答案可以快速复制。

第1关:Sqoop数据导出语法学习

任务描述

本关任务:学习Sqoop 导出( export )的基本语法并配置好环境。

相关知识

为了完成本关任务,你需要掌握: 1、Sqoop 导出( export )的基本参数。 2、配置环境。

Sqoop 导出( export )的基本参数。

Sqoop 能够让 Hadoop 上的 HDFS 和 Hive 跟关系型数据库之间进行数据导入与导出,多亏了

import

export

这两个工具。本实训主要是针对

export

(导出)来讲。 数据在Hadoop平台上进行处理后,我们可能需要将结果同步到关系数据库中作为业务的辅助数据,这时候需要将Hadoop平台分析后的数据导出(

export

)到关系数据库。 我们要学 Sqoop 的导出也必须先知道里面的基本语法。 输入

sqoop help export

可以查看里面参数含义,导出和导入基本参数都差不多,接下来选取几个常见的参数来分析:
选项含义说明--connect

 <jdbc-uri>

指定JDBC连接字符串--driver

 <class-name>

指定要使用的JDBC驱动程序类--hadoop-mapred-home

<dir>

指定$HADOOP_MAPRED_HOME路径-P从控制台读取输入的密码--username

<username>

设置认证用户名--password

<password>

设置认证密码--verbose打印详细的运行信息--columns

<col,col,col…>

要导出到表格的列--direct使用直接导入模式(优化导入速度--export-dir

<dir>

用于导出的HDFS源路径--num-mappers

<n>

(简写:-m)使用n个mapper任务并行导出--table

<table-name>

要填充的表--staging-table

 <staging-table-name>

数据在插入目标表之前将在其中展开的表格。--clear-staging-table表示可以删除登台表中的任何数据--batch使用批量模式导出--fields-terminated-by

<char>

设置字段分隔符--lines-terminated-by

 <char>

设置行尾字符--optionally-enclosed-by

 <char>

设置字段包含字符
配置环境

注意:如果这个环境不配置的话,可能会造成后续关卡不能正常实现。 1、启动Hadoop。

start-all.sh

2、Hive连接 MySQL 初始化。

schematool -dbType mysql -initSchema

编程要求

在右侧命令行进行操作: 1.启动Hadoop服务; 2.Hive 连接 MySQL 初始化。

测试说明

完成操作后点击评测,通关后测试集输出:

Hadoop平台已开启
default

参考答案

#命令行

#启动Hadoop
start-all.sh
#Hive连接 MySQL 初始化
schematool -dbType mysql -initSchema

第2关:HDFS数据导出至Mysql内

任务描述

本关任务:利用 Sqoop 工具将 HDFS 中的数据导出至 MySQL 中来。

相关知识

为了完成本关任务,你需要掌握: 1、数据库( MySQL )建表。 2、HDFS 数据导出至 MySQL 中。

数据库( MySQL )建表

因为这边 Sqoop 不能够帮关系型数据库创建表,所以需要我们自己来创建表。 用命令进入 MySQL 客户端。

mysql -uroot -p123123 -h127.0.0.1

创建数据库

hdfsdb

(格式默认为

utf8

),并在数据库内建立表

fruit

,其表结构如下:
名类状态fru_noint主键fru_namevarchar(20)fru_priceintfru_addressvarchar(20)
HDFS 数据导出至 MySQL 中

将数据放入 HDFS 上 输入

vi text.txt

,内容如下:

01,apple,6,changsha
02,banana,4,shanghai
03,orange,2,guangzhou

将文件上传HDFS

hadoop fs -put text.txt /user

HDFS 数据导出至 MySQL中 。

sqoop export --connect jdbc:mysql://127.0.0.1:3306/hdfsdb --username root --password 123123 --table fruit --export-dir /user/text.txt -m 1

查看 Mysql 中的表,发现数据已经传输过去了。

编程要求

根据上述,成功用 Sqoop 将 HDFS 上的数据导出 MySQL 成功。

测试说明

点击测评,当你的结果与预期输出一致时,即为通过。

HDFS存在text.txt文件
传输成功!

参考答案

#命令行

#进入MySQL
mysql -uroot -p123123 -h127.0.0.1
#以下为MySQL

#创建数据库hdfsdb
create database `hdfsdb`;

#切换数据库hdfsdb
use `hdfsdb`;

#创建数据表fruit
create table `fruit`(
    fru_no int primary key,
    fru_name varchar(20),
    fru_price int,
    fru_address varchar(20)
);

quit;
#命令行

#编辑text文本文件
vi text.txt
#以下为在vi编辑器中需要输入的内容。
#使用提示:【i】键进入插入模式,鼠标滚轮可以快速上下滑动光标,执行对应插入操作,最后【Esc】键退出vi插入模式,输入“:wq”保存并退出vi编辑器。
#使用提示:PageUp(PgUp)、PageDown(PgDn)键快速定位光标到文件开始位置和结束位置,Home、End键快速定位光标到当前行的行首和行末。

01,apple,6,changsha
02,banana,4,shanghai
03,orange,2,guangzhou
#命令行

#将文件上传HDFS
hadoop fs -put text.txt /user

#HDFS 数据导出至 MySQL中
sqoop export --connect jdbc:mysql://127.0.0.1:3306/hdfsdb --username root --password 123123 --table  fruit --export-dir /user/text.txt -m 1

#查看MySQL数据
mysql -uroot -p123123 -h127.0.0.1
#以下为MySQL

#查看 Mysql 中的表,发现数据已经传输过去了
use hdfsdb;
select * from `fruit`;

quit;

第3关:Hive数据导出至MySQL中

任务描述

本关任务:利用 Sqoop 工具将 Hive 中的数据导出至 MySQL 中。

相关知识

为了完成本关任务,你需要掌握:Hive 数据导出至 MySQL 中。

Hive 数据导入 MySQL 中

MySQL建表

因为之前已经创建过数据库了,我们直接使用之前的数据库

hdfsdb

,在数据库中建表

project

,表结构如下:
名类状态pro_noint主键,序号pro_namevarchar(20)课程名pro_teachervarchar(20)课程老师

# 首先进入MySQL
mysql -uroot -p123123 -h127.0.0.1
# 进入MySQL后使用数据库 hdfsdb
use hdfsdb;
# 创建表 project
create table project(pro_no int,pro_name varchar(20),pro_teacher varchar(20), primary key (pro_no));

Hive中建表添加数据

新建并编辑文本

project.txt

,添加以下内容:

01,bigdata,wang
02,javaweb,yang
03,python,xiang

输入

pwd

,获取当前路径。

进入Hive,在Hive内创建表

project

create table project (pro_no int,pro_name string, pro_teacher string) row format delimited fields terminated by ',' stored as textfile;

在表中插入刚刚创建的数据,位置为刚刚路径下的

project.txt

load data local inpath './project.txt' into table project;

查看是否添加成功。

Hive 数据导出至 MySQL。

sqoop export --connect jdbc:mysql://127.0.0.1:3306/hdfsdb --username root --password 123123 --table project --export-dir /opt/hive/warehouse/project -m 1 --input-fields-terminated-by ','

我们查看 MySQL 中,发现数据已经传输过去了。

编程要求

根据上述,将Hive表中数据导出到mysql中。

测试说明

点击测评,当你的结果与预期输出一致时,即为通过。

hive建表成功
传输成功!

参考答案

#命令行

#进入mysql
mysql -uroot -p123123 -h127.0.0.1
#以下为MySQL

#切换数据库
use hdfsdb;
#创建表 project
create table project(pro_no int,pro_name varchar(20),pro_teacher varchar(20), primary key (pro_no));

quit;
#命令行

#新建并编辑文本project.txt
vi project.txt
#以下为在vi编辑器中需要输入的内容。
#使用提示:【i】键进入插入模式,鼠标滚轮可以快速上下滑动光标,执行对应插入操作,最后【Esc】键退出vi插入模式,输入“:wq”保存并退出vi编辑器。
#使用提示:PageUp(PgUp)、PageDown(PgDn)键快速定位光标到文件开始位置和结束位置,Home、End键快速定位光标到当前行的行首和行末。

01,bigdata,wang
02,javaweb,yang
03,python,xiang
#命令行

#输入pwd,获取当前路径
pwd

#进入Hive,在Hive内创建表project
hive
--以下为Hive

--创建表project
create table project (pro_no int,pro_name string, pro_teacher string) row format delimited fields terminated by ',' stored as textfile;

--在表中插入刚刚创建的数据,位置为刚刚路径下的project.txt
load data local inpath './project.txt' into table project;

--查看是否添加成功
select * from project;

quit;
#命令行

#Hive 数据导出至 MySQL
sqoop export --connect jdbc:mysql://127.0.0.1:3306/hdfsdb --username root --password 123123 --table  project --export-dir /opt/hive/warehouse/project -m 1 --input-fields-terminated-by ','

至此,所有内容都完成辣。如果存在任何问题欢迎大佬指教🥰!

标签: mysql 数据库 linux

本文转载自: https://blog.csdn.net/qq_41560688/article/details/129849286
版权归原作者 梦想编程家 所有, 如有侵权,请联系我们删除。

“【头歌】Sqoop数据导出 - 详解”的评论:

还没有评论