解决JPS少DataNode的情况

开启dfs服务和Hadoop服务时,datanode还是不能查询到进程

这个时候直接输入

复制代码
cd /opt/hadoop/    //这里是进入到你Hadoop的目录当中
hdfs --daemon start datanode

然后,等待命令执行重新输入JPS就可以了,开去试试吧。

加入一个小插曲:

使用Hadoop时出现无效错误提示ERROR: Invalid HADOOP_YARN_HOME

进入~/.bashrc文件中,在文件末位添加HADOOP_YARN_HOME路径,指向你Hadoop文件路径。

复制代码
export HADOOP_YARN_HOME=/opt/hadoop

然后再在普通用户下去使用Hadoop命令。

相关推荐
吴爃1 天前
N8N调用系统接口进行AI分析
运维·人工智能·ai
Zeku1 天前
20251130 - 详细解析Framebuffer应用编程中涉及到的API函数
linux·驱动开发·嵌入式软件·linux应用开发
保卫大狮兄1 天前
TPM 到底用在设备管理的哪个阶段?
大数据·运维
Xの哲學1 天前
Linux AQM 深度剖析: 拥塞控制
linux·服务器·算法·架构·边缘计算
遇见火星1 天前
Docker Compose 实战教程,理解Docker Compose核心概念,学会编写 compose.yml,掌握常用命令!
运维·docker·容器·compose
今晚务必早点睡1 天前
Redis——快速入门第六课:Redis 运维 & 排错实战
运维·redis·bootstrap
原神启动11 天前
Docker(二)—— Docker容器操作
运维·docker·容器
你什么冠军?1 天前
Docker
运维·容器
梦想的旅途21 天前
RVA与基址偏移在自动化执行中的稳定性研究
运维·自动化·企业微信·rpa
lifejump1 天前
Pikachu | SSRF
服务器·web安全·安全性测试