解决JPS少DataNode的情况

开启dfs服务和Hadoop服务时,datanode还是不能查询到进程

这个时候直接输入

复制代码
cd /opt/hadoop/    //这里是进入到你Hadoop的目录当中
hdfs --daemon start datanode

然后,等待命令执行重新输入JPS就可以了,开去试试吧。

加入一个小插曲:

使用Hadoop时出现无效错误提示ERROR: Invalid HADOOP_YARN_HOME

进入~/.bashrc文件中,在文件末位添加HADOOP_YARN_HOME路径,指向你Hadoop文件路径。

复制代码
export HADOOP_YARN_HOME=/opt/hadoop

然后再在普通用户下去使用Hadoop命令。

相关推荐
Flash.kkl12 分钟前
Linux——进程信号
运维·服务器
苏宸啊1 小时前
Linux权限
linux·运维·服务器
Gofarlic_oms12 小时前
Windchill用户登录与模块访问失败问题排查与许可证诊断
大数据·运维·网络·数据库·人工智能
我是小疯子662 小时前
Python变量赋值陷阱:浅拷贝VS深拷贝
java·服务器·数据库
xqhoj2 小时前
Linux——make、makefile
linux·运维·服务器
文亭湖畔程序猿2 小时前
Debian 12 日常命令 & nano 快捷键速查表
运维·debian
张童瑶2 小时前
Linux 在线安装编译Python3.11
linux·运维·python3.11
ziqibit2 小时前
debian Live with Persistence 持久化U盘的debian系统
运维·debian
Shi_haoliu2 小时前
SolidTime 在 Rocky Linux 9.5 上的完整部署流程
linux·运维·nginx·postgresql·vue·php·laravel
lifejump2 小时前
Pikachu | XXE
服务器·web安全·网络安全·安全性测试