pig、sqoop安装

1.pig安装

1.解压安装包

bash 复制代码
sudo tar -zxvf pig-0.17.0.tar.gz -C /opt
//解压安装包

2.修改文件名,授权

bash 复制代码
cd /opt
sudo mv ./pig-0.17.0 pig
sudo chown -R hadoop pig
//修改文件名并授权

3.将pig-0.17.0-src.tar.gz解压到pig目录中

bash 复制代码
sudo tar -zxvf pig-0.17.0-src.tar.gz -C /opt/pig
//将pig-0.17.0-src.tar.gz解压到pig

4.配置pig

bash 复制代码
gedit pig.properties
//配置pig.properties文件
bash 复制代码
pig -h properties

5.配置环境变量

bash 复制代码
gedit ~/.bashrc
//打开环境配置文件
bash 复制代码
export PIG_HOME=/opt/pig
export PATH=$PATH:/opt/pig/bin
export PIG_CLASSPATH=$HADOOP_HOME/conf
//添加配置
bash 复制代码
source ~/.bashrc
//使环境生效

6.检查版本

bash 复制代码
pig -version
//版本

2.pig运行实例

1.本地模式操作

1.启动本地模式
bash 复制代码
pig -x local
//启动本地模式
2.在交互界面执行操作
bash 复制代码
grunt > sh ls
//查看当前目录下文件
grunt > clear
//清空屏幕
grunt > help
//查看帮助信息
3.批处理模式执行脚本
bash 复制代码
student = LOAD '/opt/pig/student.txt' USING PigStorage(',') AS (id:int,name:chararray,city:chararray);
Dump student;
//脚本文件

bash 复制代码
pig -x local stulocal.pig
//执行

2.MapReduce模式操作

bash 复制代码
start-dfs.sh
start-yarn.sh
//开启Hadoop服务
bash 复制代码
hdfs dfs -mkdir -p /user/hadoop/pig
//创建目录
hdfs dfs -put /opt/pig/student.txt /user/hadoop/pig/
//上传
bash 复制代码
hdfs dfs -ls /user/hadoop/pig/student.txt
//查看文件
bash 复制代码
pig -x mapreduce
//启动MapRduce模式
bash 复制代码
stu1 = LOAD 'hdfs://localhost:9000/user/hadoop/pig/student.txt' USING PigStorage(',') AS (id:int, name:chararray, city:chararray);
//数据处理
bash 复制代码
# 查看加载的数据内容
Dump stu1;

# 显示数据结构(字段名和类型)
Describe stu1;

# 显示执行计划(逻辑执行流程)
Explain stu1;

# 展示执行步骤(带示例数据的流程说明)
Illustrate stu1;
bash 复制代码
# 按city字段分组,结果保存到groupstu
groupstu = GROUP stu1 by city;

# 查看分组结果
Dump groupstu;

3.sqoop安装

1.解压安装包

bash 复制代码
sudo tar -zxvf sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz -C /opt
//解压安装包

2.修改文件名,授权

bash 复制代码
cd /opt
sudo mv sqoop-1.4.6.bin__hadoop-2.0.4-alpha sqoop
sudo chown -R hadoop sqoop
//修改文件名,授权

3.修改配置文件sqoop-env.sh

bash 复制代码
cd /opt/sqoop/conf
cat sqoop-env-template.sh >> sqoop-env.sh
gedit sqoop-env.sh
//复制一个新文件并编辑
bash 复制代码
export HADOOP_COMMON_HOME=/opt/hadoop-3.1.3
export HADOOP_MAPRED_HOME=/opt/hadoop-3.1.3
export HBASE_HOME=/opt/hbase
export HIVE_HOME=/opt/hive
export ZOOCFGDIR=/opt/zookeeper/zoo1/conf
//配置(用自己的路径)

4.配置环境变量

bash 复制代码
gedit ~/.bashrc
//打开环境配置文件
bash 复制代码
export SQOOP_HOME=/opt/sqoop
export PATH=$PATH:$SBT_HOME/bin:$SQOOP_HOME/bin
export CLASSPATH=$CLASSPATH:$SQOOP_HOME/lib
bash 复制代码
source ~/.bashrc
//使环境生效

5.拷贝驱动包

bash 复制代码
cp /mysql-connector-java-5.1.40/mysql-connector-java-5.1.40-bin.jar /opt/sqoop/lib
//拷贝安装包到目录下

6.测试与MySQL连接

bash 复制代码
service mysql start
//开启MySQL服务
bash 复制代码
 sqoop list-databases --connect jdbc:mysql://127.0.0.1:3306/ --username root -P
//建立连接

结果:

4.sqoop实际运行实例

查看数据库和表

bash 复制代码
sqoop list-databases --connect jdbc:mysql://localhost:3306 -username root -password 111111
//查看数据库

可以创建一个测试库

bash 复制代码
create database test_db;
use test_db;
create table student(id int, name varchar(20));
insert into student values(1,'张三'),(2,'李四');
//创建一个测试库
bash 复制代码
sqoop list-tables --connect jdbc:mysql://localhost:3306/test_db -username root -password 111111
//查看表
相关推荐
SPC的存折3 小时前
1、Redis数据库基础
linux·运维·服务器·数据库·redis·缓存
爱学习的小囧4 小时前
VMware ESXi 6.7U3v 新版特性、驱动集成教程和资源包、部署教程及高频问答详情
运维·服务器·虚拟化·esxi6.7·esxi蟹卡驱动
小疙瘩4 小时前
只是记录自己发布若依分离系统到linux过程中遇到的问题
linux·运维·服务器
dldw7775 小时前
IE无法正常登录windows2000server的FTP服务器
运维·服务器·网络
我是伪码农6 小时前
外卖餐具智能推荐
linux·服务器·前端
汤愈韬6 小时前
下一代防火墙通用原理
运维·服务器·网络·security
皮皮林5516 小时前
强烈建议大家使用 Linux 做开发?
linux
IMPYLH6 小时前
Linux 的 od 命令
linux·运维·服务器·bash
Kk.08027 小时前
Linux(十一)fork实例练习、文件操作示例及相关面试题目分享
linux·运维·算法
数据雕塑家8 小时前
Linux下大文件切割与合并实战:解决FAT32文件系统传输限制
linux·运维·服务器