解决JPS少DataNode的情况

开启dfs服务和Hadoop服务时,datanode还是不能查询到进程

这个时候直接输入

复制代码
cd /opt/hadoop/    //这里是进入到你Hadoop的目录当中
hdfs --daemon start datanode

然后,等待命令执行重新输入JPS就可以了,开去试试吧。

加入一个小插曲:

使用Hadoop时出现无效错误提示ERROR: Invalid HADOOP_YARN_HOME

进入~/.bashrc文件中,在文件末位添加HADOOP_YARN_HOME路径,指向你Hadoop文件路径。

复制代码
export HADOOP_YARN_HOME=/opt/hadoop

然后再在普通用户下去使用Hadoop命令。

相关推荐
添砖java‘’几秒前
序列与反序列化
服务器·网络·c++·序列化·反序列化
小川zs12 分钟前
OpenClaw Gateway 频繁断开/重启问题诊断
linux·服务器·gateway
xiaokangzhe12 分钟前
web技术与nginx网站环境部署
运维·前端·nginx
Mr数据杨16 分钟前
【Dv3Admin】FastCRUD MD编辑器操作
服务器·网络·编辑器
AMoon丶22 分钟前
Golang--锁
linux·开发语言·数据结构·后端·算法·golang·mutex
程序员一点23 分钟前
第23章:备份与灾难恢复策略
linux·运维·网络·数据库·openeuler
IT WorryFree28 分钟前
openclaw接入企业飞书机器人:个人增效和团队自动化两种场景
服务器·自动化·飞书
静候光阴31 分钟前
为本地ollama设置网页搜索mcp服务器
运维·服务器
艾莉丝努力练剑33 分钟前
确保多进程命名管道权限一致的方法
java·linux·运维·服务器·开发语言·网络·c++
NGC_661142 分钟前
TCP三次握手
运维·服务器·网络