hadoop常用命令

Yarn

查看提交到资源调度器的任务(任何用yarn资源的都可以看,比如spark、tez、mapreduce)

看正在运行的yarn任务

yarn application -list

杀死对应的yarn任务

yarn application -kill {application_Id}(id可以通过-list看到)

hdfs

查看hdfs目录

hdfs dfs -ls /(查看本集群的目录)

hdfs dfs -ls hdfs://ip地址:端口号/(查看指定集群的目录,需要有相关访问权限--如互信,如票据)

查看namenode active节点

hdfs haadmin 先输入这个,然后有提示 -getServiceState

创建目录

hdfs dfs -mkdir /

统计文件大小

(-s是返回合并所有文件后结果,-h是自动转换为可见的单位,不加-h返回的是字节数)

hdfs dfs -du -s -h /目录

相关推荐
小李独爱秋3 小时前
深入解析MapReduce工作流程:从核心原理到实战优化
大数据·mapreduce
小样vvv6 小时前
【Es】基础入门:开启全文搜索的大门
大数据·elasticsearch·搜索引擎
黄雪超7 小时前
Flink介绍——实时计算核心论文之S4论文详解
大数据·论文阅读·flink
星光璀璨山河无恙8 小时前
【Hadoop】Hadoop3.1.4完全分布式集群搭建
大数据·hadoop·分布式
GIS数据转换器9 小时前
在机器人和无人机时代,测绘人的出路在哪里?
大数据·人工智能·信息可视化·机器人·自动驾驶·汽车·无人机
不辉放弃9 小时前
Spark 在 Python 大数据中的作用
大数据·python
Gvemis⁹10 小时前
Scala总结(二)
大数据·开发语言·scala
Elastic 中国社区官方博客11 小时前
Elasticsearch:使用 Azure AI 文档智能解析 PDF 文本和表格数据
大数据·人工智能·elasticsearch·搜索引擎·pdf·全文检索·azure
会功夫的李白12 小时前
从零创建npm依赖,只需执行一条命令
npm·依赖
Lansonli13 小时前
大数据Spark(五十六):Spark生态模块与运行模式
大数据·分布式·spark