【hadoop】HDFS

HDFS

操作HDFS

操作HDFS有三种方式,分别是 使用Web Console网页工具命令行Java API

Web Console 网页工具

操作NameNode

NameNode:端口50070

访问地址:IP/dfshealth.html

在summary中,值得关注的是 safemode is off ,说明HDFS的安全模式是关闭的,如果是打开的,那么HDFS是处于只读的状态,不能进行操作HDFS。

下面是HDFS启动过程,比较重要

操作SecondaryNameNode

端口:50090

访问地址:Ip:50090/status.html

命令行

1、普通的操作命令:hdfs dfs ****

-mkdir 在HDFS中创建目录

java 复制代码
hdfs dfs -mkdir /aaa
hdfs dfs -mkdir -p /bbb/ccc 如果父目录不存在,使用-p参数先创建父目录

-ls 查询HDFS的某个目录

-ls -R 查询HDFS的某个目录,包含子目录,简写:-lsr

-put 上传数据

-copyFromLocal 上传数据

-moveFromLocal 上传数据,本质ctrl+x 剪切

-copyToLocal 下载数据

-get 下载数据

-rm 删除目录

-rmr 删除目录,包含子目录

-getmerge:先把某个目录下的文件合并,再下载

demo:

java 复制代码
[root@bigdata111 ~]# vi student01.txt
java 复制代码
[root@bigdata111 ~]# vi student02.txt
java 复制代码
[root@bigdata111 ~]# hdfs dfs -mkdir /students
[root@bigdata111 ~]# hdfs dfs -put student0* /students
[root@bigdata111 ~]# hdfs dfs -ls /students
Found 2 items
-rw-r--r--   1 root supergroup         19 2020-02-24 10:19 /students/student01.txt
-rw-r--r--   1 root supergroup         10 2020-02-24 10:19 /students/student02.txt
[root@bigdata111 ~]# hdfs dfs -getmerge /students ./allstudents.txt

-cp:拷贝 hdfs dfs -cp /input/data.txt /input/data2.txt

-mv:剪切

-count:举例 hdfs dfs -count /students 查看文件的个数

-du:类似-count,更详细

java 复制代码
hdfs dfs -du /students
结果:
19  /students/student01.txt
10  /students/student02.txt

-text、-cat 查看文本文件的内容

java 复制代码
hdfs dfs -cat /students/student01.txt

balancer:平衡操作

2、管理的命令:hdfs dfsadmin ****

-report:hdfs dfsadmin -report

-safemode 安全模式

java 复制代码
[root@bigdata111 ~]# hdfs dfsadmin -safemode
Usage: hdfs dfsadmin [-safemode enter | leave | get | wait]
[root@bigdata111 ~]# hdfs dfsadmin -safemode get
Safe mode is OFF
[root@bigdata111 ~]# hdfs dfsadmin -safemode enter
Safe mode is ON
[root@bigdata111 ~]# hdfs dfs -mkdir /xyz
mkdir: Cannot create directory /xyz. Name node is in safe mode.
[root@bigdata111 ~]# hdfs dfsadmin -safemode leave
Safe mode is OFF

Java API

操作需要包含的jar包:

powershell 复制代码
$HADOOP_HOME/share/hadoop/common/*.jar
$HADOOP_HOME/share/hadoop/common/lib/*.jar
$HADOOP_HOME/share/hadoop/hdfs/*.jar
$HADOOP_HOME/share/hadoop/hdfs/lib/*.jar

方式:
Java API连接HDFS并创建文件夹
使用Java API 上传下载数据
使用Java API获取HDFS的元信息

HDFS的原理解析

数据上传的过程

数据下载的过程

HDFS的高级特性

回收站

默认回收站是关闭的,可以通过在 core-site.xml 中添加 fs.trash.interval 来打开幵配置时间阀值。

xml 复制代码
<property>
	<name>fs.trash.interval</name>
	<value>1440</value>
</property>

可以设置一个时间阈值,当回收站里文件的存放时间超过返个阈值,就被彻底删除,并且释放占用的数据块,比如上面就设置了一个1440分钟的阀值。


从回收站里恢复文件

配额Quota

名称配额

名称配额:规定的是某个HDFS目录下文件的个数,

比如:设置名称配额是N,表示只能在该目录下存放N-1个文件或者目录

java 复制代码
hdfs dfsadmin [-setQuota <quota> <dirname>...<dirname>]
hdfs dfsadmin [-clrQuota <dirname>...<dirname>]

举例:

java 复制代码
hdfs dfs -mkdir /t1 

设置该目录的名称配额是3,所以该目录下只能放两个文件或文件夹。

java 复制代码
hdfs dfsadmin -setQuota 3 /t1 

空间配额

空间配额:规定的是某个HDFS目录下文件的大小

比如:设置某个HDFS目录的空间配额是200M,只能存放200M以下的文件

java 复制代码
hdfs dfsadmin [-setSpaceQuota <quota> [-storageType <storagetype>] <dirname>...<dirname>]
hdfs dfsadmin [-clrSpaceQuota [-storageType <storagetype>] <dirname>...<dirname>]

举例:

java 复制代码
hdfs dfs -mkdir /t2

设置该目录的空间配额是1M (逻辑单位)

java 复制代码
hdfs dfsadmin -setSpaceQuota 1M /t2

上传一个超过1M,大小为50M的文件,会发生下面的错误:

java 复制代码
The DiskSpace quota of /t2 is exceeded: quota = 1048576 B = 1 MB but diskspace consumed = 134217728 B = 128 MB

由于是50M文件,占用一个数据块,所以会提示128M。

快照Snapshot

一个snapshot(快照)是一个全部文件系统、或者某个目录在某一时刻的镜像。(本质:就是cp命令)

安全模式 SafeMode

安全模式是hadoop的一种保护机制,用于保证集群中的数据块的安全性。如果HDFS处于

安全模式,则表示HDFS是只读状态。

安全模式的作用:当集群启动的时候,会首先进入安全模式。当系统处于安全模式时会检查数据块的完整性。(数据块是否满足冗余度的要求)

假设我们设置的副本数/冗余度(即参数dfs.replication)是5,那么在datanode上就应该有5个副本存在,假设只存在3个副本,那么比例就是3/5=0.6。在配置文件hdfs-default.xml中定义了一个最小的副本的副本率0.999。我们的副本率0.6明显小于0.99,因此系统会自动的复制副本到其他的dataNode,使得副本率不小于0.999.如果系统中有8个副本,超过我们设定的5个副本,那么系统也会删除多余的3个副本。

java 复制代码
hdfs dfsadmin -safemode get 查看安全模式状态
hdfs dfsadmin -safemode enter 进入安全模式状态
hdfs dfsadmin -safemode leave 离开安全模式

权限管理:类似Linux

HDFS的集群

集群的两大功能和解决方式:

(1)负载均衡:联盟Federation

(2)失败迁移(单点故障):HA

注意:联盟是HDFS特有的,但HA是主从架构共有的

HDFS的底层原理:Java程序(记得重新修改)

1、Java的代理对象Proxy

案例:利用Java的代理对象实现数据库的连接池。

(1)通过连接池返回一个Connection对象

(2)使用完后,connection.close,把该连接直接还给数据库

(3)重写close方法,把该连接还给数据库的连接池

准备实验环境:MySQL的数据库

如何安装MySQL,在Hive的时候,再介绍

2、RPC协议(remote procedure call远程过程调用)

相关推荐
Data 3172 小时前
Hive数仓操作(十)
大数据·数据库·数据仓库·hive·hadoop
ON.LIN2 小时前
Hadoop大数据入门——Hive-SQL语法大全
大数据·数据库·hive·hadoop·分布式·sql
Elastic 中国社区官方博客2 小时前
Elasticsearch 开放推理 API 增加了对 Google AI Studio 的支持
大数据·数据库·人工智能·elasticsearch·搜索引擎
cndes2 小时前
大数据算法的思维
大数据·算法·支持向量机
青云交3 小时前
大数据新视界 --大数据大厂之 Kafka 性能优化的进阶之道:应对海量数据的高效传输
大数据·数据库·人工智能·性能优化·kafka·数据压缩·分区策略·磁盘 i/o
漫无目的行走的月亮5 小时前
比较Elasticsearch和Hadoop
hadoop·elasticsearch
奔跑吧邓邓子11 小时前
大数据利器Hadoop:从基础到实战,一篇文章掌握大数据处理精髓!
大数据·hadoop·分布式
说私域12 小时前
基于定制开发与2+1链动模式的商城小程序搭建策略
大数据·小程序
hengzhepa13 小时前
ElasticSearch备考 -- Async search
大数据·学习·elasticsearch·搜索引擎·es
GZ_TOGOGO14 小时前
【2024最新】华为HCIE认证考试流程
大数据·人工智能·网络协议·网络安全·华为