Apache Hadoop生态组件部署分享-Sqoop

zookeeper: Apache Hadoop生态组件部署分享-zookeeper

hadoop:Apache Hadoop生态组件部署分享-Hadoop

hive: Apache Hadoop生态组件部署分享-Hive

hbase: Apache Hadoop生态组件部署分享-Hbase

impala:Apache Hadoop生态组件部署分享-Impala

spark: Apache Hadoop生态组件部署分享-Spark

下载地址: https://archive.apache.org/dist/sqoop/

1、上传压缩包并解压

apache 复制代码
tar -xf sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -C /opt/apache/

2、将mysql驱动包放置在其lib下

apache 复制代码
cp /opt/softs/mysql-connector-java-5.1.47.jar /opt/apache/sqoop-1.4.7.bin__hadoop-2.6.0/lib

3、配置SQOOP环境

bash 复制代码
export SQOOP_HOME=/opt/apache/sqoop-1.4.7.bin__hadoop-2.6.0export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEEPER_HOME/bin:$HIVE_HOME/bin:$HBASE_HOME/bin:${SQOOP_HOME}/bin

4、验证使用

cs 复制代码
[root@apache230 ~]# sqoop list-databases --connect jdbc:mysql://apache230.hadoop.com:3306/ --username root --password 123456

5、验证抽取数据

mysql数据准备

sql 复制代码
create table test.testsqoopb(name VARCHAR(100)) DEFAULT CHARSET=utf8;
INSERT INTO test.testsqoopb (name)  VALUES ('john_doe');INSERT INTO test.testsqoopb (name)  VALUES ('张三');
直接抽取到HDFS上
cpp 复制代码
sqoop import \--connect jdbc:mysql://apache230.hadoop.com:3306/test \--username root \--password 123456 \--table testsqoopb \--target-dir /test/sqoop/test_sqoop \--delete-target-dir \--fields-terminated-by "\t" \--num-mappers 1 
注: 如果要多个map执行,则需要加--split-by 字段
查看验证
直接抽取到HIVE中
apache 复制代码
sqoop import \--connect jdbc:mysql://apache230.hadoop.com:3306/test \--username root \--password 123456 \--table testsqoopb \--num-mappers 1 \--delete-target-dir \--hive-import \--fields-terminated-by "\t" \--hive-overwrite \--hive-table test_sqoop
抽取到hbase
apache 复制代码
sqoop import \--connect jdbc:mysql://apache230.hadoop.com:3306/test \--username root \--password 123456 \--table sqoophbase \--hbase-create-table \--hbase-row-key "name" \--hbase-table "test_sqoopb" \--column-family "info" \--num-mappers 1 \--split-by id
当前遇到问题,后续再看,版本兼容问题
6、导出数据到mysql
apache 复制代码
sqoop export \--connect 'jdbc:mysql://apache230.hadoop.com:3306/test?useUnicode=true&characterEncoding=utf-8' \--username root \--password 123456 \--table testsqoopb \--num-mappers 1 \--export-dir /warehouse/hive/warehouse/test_sqoop \--input-fields-terminated-by "\t"

验证查看

相关推荐
初次攀爬者1 天前
ZooKeeper 实现分布式锁的两种方式
分布式·后端·zookeeper
武子康2 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP2 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
够快云库2 天前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全
AI周红伟2 天前
周红伟:智能体全栈构建实操:OpenClaw部署+Agent Skills+Seedance+RAG从入门到实战
大数据·人工智能·大模型·智能体
B站计算机毕业设计超人2 天前
计算机毕业设计Django+Vue.js高考推荐系统 高考可视化 大数据毕业设计(源码+LW文档+PPT+详细讲解)
大数据·vue.js·hadoop·django·毕业设计·课程设计·推荐算法
计算机程序猿学长2 天前
大数据毕业设计-基于django的音乐网站数据分析管理系统的设计与实现(源码+LW+部署文档+全bao+远程调试+代码讲解等)
大数据·django·课程设计
B站计算机毕业设计超人2 天前
计算机毕业设计Django+Vue.js音乐推荐系统 音乐可视化 大数据毕业设计 (源码+文档+PPT+讲解)
大数据·vue.js·hadoop·python·spark·django·课程设计
十月南城2 天前
数据湖技术对比——Iceberg、Hudi、Delta的表格格式与维护策略
大数据·数据库·数据仓库·hive·hadoop·spark
中烟创新2 天前
灯塔AI智能体获评“2025-2026中国数智科技年度十大创新力产品”
大数据·人工智能·科技