hadoop的相关操作

一.hadoop与hadoop生态圈

Apache Hadoop:是一款分布式开源应用程序,主要解决海量数据的存储和分布式计算问题

Hadoop生态圈:是更广泛的概念,包含hadoop,sqoop,flume,zookeeper,hive,spark,hbase,oozie等构成的大数据处理相关一系统组件

hadoop版本介绍

hadoop1.x的组成:

Common(辅助工具):支持其他模块的工具(Configuration,RPC,序列化机制,日志操作等)

MapReduce(资源调度+计算):一个分布式的资源调度和离线并行计算框架

HDFS(数据存储):一个高可靠,高吞吐量的分布式文件系统

hadoop2.x的组成(新增了Yarn调度):

Common(辅助工具):支持其他模块的工具(Configuration,RPC,序列化机制,日志操作等)

MapReduce(计算):一个分布式的离线并行计算框架

HDFS(数据存储):一个高可靠,高吞吐量的分布式文件系统

Yarn(资源调度):作业调度与集群资源管理的框架

hadoop3.x的组成(整体架构无变化):略

二.hadoop架构

HDFS架构:

1.NameNode:存储文件的元数据,如文件名,文件目录结构,文件属性(生成时间,副本数,文件权限等),及每个文件的块列表和块所在的DataNode等

2.DataNode:在本地文件系统存储文件块数据,以及块数据的校验和

3.Secondary NameNode:用来监控HDFS状态的辅助后台程序,每隔一段时间获取HDFS元数据的快照

YARN架构:

1.ResourceManager:处理客户端请求,启动/监控ApplicationMaster,监控NodeManager,资源分配和调度

2.NodeManager:单个节点上的资源管理,处理来自ResourceManager的命令,处理来自ApplicationMaster的命令

3.ApplicationMaster:数据切分,为应用程序申请资源,分配给内部任务,任务监控和容错

4.Container:对任务运行环境的抽象,封装了CPU,内存等多维资源以及环境变量,启动命令等任务运行相关的信息

MapReduce架构:

MapReduce主要负责任务的计算,MapReduce将计算过程分为两个阶段,Map阶段和Reduce阶段

Map阶段:并行处理输入数据

Reduce阶段:对Map阶段的结果进行汇总

三.hdfs的读写流程

从hdfs读取数据的流程:

1.client向NameNode请求读取文件

2.NameNode向client返回元数据信息(各个块的位置)

3.client向DataNode请求第1个块的数据

4.DataNode向client响应第1个块的数据

5.client向DataNode请求第2个块的数据

...

向hdfs写入数据的流程:

1.client向NameNode请求写入文件

2.NameNode执行不同的检查:如权限,文件是否存在等,如果查询通过则为新文件创建条记录

3.client向DataNode请求写入第1个块的数据

4.DataNode进行块复制

...

四.hdfs的客户端命令:

Usage: hadoop fs [generic options]

-appendToFile ...

-cat \[-ignoreCrc\] ...

-checksum ...

-chgrp \[-R\] GROUP PATH...

-chmod \[-R\] \ PATH...

-chown \[-R\] \[OWNER\]\[:\[GROUP\]\] PATH...

-copyFromLocal \[-f\] \[-p\] \[-l\] \[-d\] \[-t \] ...

-copyToLocal \[-f\] \[-p\] \[-ignoreCrc\] \[-crc\] ...

-count \[-q\] \[-h\] \[-v\] \[-t \[\]\] \[-u\] \[-x\] \[-e\] ...

-cp \[-f\] \[-p \| -p\[topax\]\] \[-d\] ...

-createSnapshot \[\]

-deleteSnapshot

-df \[-h\] \[ ...\]

-du \[-s\] \[-h\] \[-v\] \[-x\] ...

-expunge

-find ... ...

-get \[-f\] \[-p\] \[-ignoreCrc\] \[-crc\] ...

-getfacl \[-R\]

-getfattr \[-R\] {-n name \| -d} \[-e en\]

-getmerge \[-nl\] \[-skip-empty-file\]

-head

-help \[cmd ...\]

-ls \[-C\] \[-d\] \[-h\] \[-q\] \[-R\] \[-t\] \[-S\] \[-r\] \[-u\] \[-e\] \[ ...\]

-mkdir \[-p\] ...

-moveFromLocal ...

-moveToLocal

-mv ...

-put \[-f\] \[-p\] \[-l\] \[-d\] ...

-renameSnapshot

-rm \[-f\] \[-r\|-R\] \[-skipTrash\] \[-safely\] ...

-rmdir \[--ignore-fail-on-non-empty

...]

-setfacl \[-R\] \[{-b\|-k} {-m\|-x \} \]\|\[--set \ \]

-setfattr {-n name \[-v value\] \| -x name}

-setrep \[-R\] \[-w\] ...

-stat \[format\] ...

-tail \[-f\]

-test -\[defsz\]

-text \[-ignoreCrc\] ...

-touchz ...

-trace

-truncate \[-w\] ...

-usage \[cmd ...\]

五.hdfs的api操作(使用java程序来访问HDFS):略

1.创建maven工程

2.导入相应的依赖

3.配置log4j

mapreduce的客户端操作(使用java程序来提交mapreduce作业):略

相关推荐
万邦科技Lafite2 小时前
实战演练:通过API获取商品详情并展示
大数据·数据库·python·开放api接口
在未来等你2 小时前
Elasticsearch面试精讲 Day 14:数据写入与刷新机制
大数据·分布式·elasticsearch·搜索引擎·面试
黄焖鸡能干四碗2 小时前
智慧教育,智慧校园,智慧安防学校建设解决方案(PPT+WORD)
java·大数据·开发语言·数据库·人工智能
phac1232 小时前
git 如何直接拉去远程仓库的内容且忽略本地与远端不一致的commit
大数据·git·elasticsearch
在未来等你2 小时前
Elasticsearch面试精讲 Day 11:索引模板与动态映射
大数据·分布式·elasticsearch·搜索引擎·面试
正在走向自律2 小时前
国产时序数据库选型指南-从大数据视角看透的价值
大数据·数据库·清华大学·时序数据库·iotdb·国产数据库
在未来等你3 小时前
Kafka面试精讲 Day 14:集群扩容与数据迁移
大数据·分布式·面试·kafka·消息队列
哥哥还在IT中3 小时前
Elasticsearch优化从入门到精通
大数据·elasticsearch·搜索引擎
Elastic 中国社区官方博客3 小时前
使用 cloud-native Elasticsearch 与 ECK 运行
大数据·数据库·elasticsearch·搜索引擎·kubernetes·k8s·全文检索
村雨遥4 小时前
Flink 状态管理的核心能力
大数据·flink