解决JPS少DataNode的情况

开启dfs服务和Hadoop服务时,datanode还是不能查询到进程

这个时候直接输入

复制代码
cd /opt/hadoop/    //这里是进入到你Hadoop的目录当中
hdfs --daemon start datanode

然后,等待命令执行重新输入JPS就可以了,开去试试吧。

加入一个小插曲:

使用Hadoop时出现无效错误提示ERROR: Invalid HADOOP_YARN_HOME

进入~/.bashrc文件中,在文件末位添加HADOOP_YARN_HOME路径,指向你Hadoop文件路径。

复制代码
export HADOOP_YARN_HOME=/opt/hadoop

然后再在普通用户下去使用Hadoop命令。

相关推荐
气π1 分钟前
【流程】——若依项目前后端打包发布到服务器
运维·服务器·oracle
代码游侠4 分钟前
复习——Linux 系统编程
linux·运维·c语言·学习·算法
共绩算力7 分钟前
给 TRAE SOLO 一台服务器,它能干什么?
运维·服务器
Starry_hello world10 分钟前
Linux 线程(1)
linux
DKunYu14 分钟前
3.负载均衡-LoadBalance
java·运维·spring cloud·微服务·负载均衡
2401_8315017317 分钟前
Devops之Docker安装和使用
运维·docker·devops
码界奇点21 分钟前
基于Django与Zabbix集成的运维故障管理系统设计与实现
运维·django·毕业设计·zabbix·源代码管理
longxibo22 分钟前
Ubuntu datasophon1.2.1 二开之二:解决三大监控组件安装后,启动失败:报缺失common.sh
大数据·linux·运维·ubuntu
小尧嵌入式24 分钟前
Linux的shell命令
linux·运维·服务器·数据库·c++·windows·算法
码界奇点25 分钟前
基于Django与Ansible的自动化运维管理系统设计与实现
运维·python·django·毕业设计·ansible·源代码管理