解决JPS少DataNode的情况

开启dfs服务和Hadoop服务时,datanode还是不能查询到进程

这个时候直接输入

复制代码
cd /opt/hadoop/    //这里是进入到你Hadoop的目录当中
hdfs --daemon start datanode

然后,等待命令执行重新输入JPS就可以了,开去试试吧。

加入一个小插曲:

使用Hadoop时出现无效错误提示ERROR: Invalid HADOOP_YARN_HOME

进入~/.bashrc文件中,在文件末位添加HADOOP_YARN_HOME路径,指向你Hadoop文件路径。

复制代码
export HADOOP_YARN_HOME=/opt/hadoop

然后再在普通用户下去使用Hadoop命令。

相关推荐
云和恩墨几秒前
表空间、巡检、建库:DBA最熟悉的3个场景,正在被zCloud开放运维中心重新定义
运维·数据库·表空间·dba·巡检·建库
飘忽不定的bug18 分钟前
记录:编译rockchip libv4l-rkmpp库
linux·libv4l-rkmpp
oMcLin28 分钟前
如何在 Ubuntu 22.04 服务器上实现分布式数据库 Cassandra 集群,优化数据一致性与写入吞吐量
服务器·分布式·ubuntu
UCH1HA1 小时前
MySQL主从复制与读写分离
linux·mysql·集群
Xの哲學1 小时前
Linux 文件系统一致性: 从崩溃恢复到 Journaling 机制
linux·服务器·算法·架构·边缘计算
学烹饪的小胡桃1 小时前
WGCAT工单系统 v1.2.7 更新说明
linux·运维·服务器·网络·工单系统
BigBigHang1 小时前
【docker】离线设备安装镜像
运维·docker·容器
学好statistics和DS1 小时前
Docker文件与本地文件,系统
运维·docker·容器
liuc03171 小时前
docker下安装SearXNG
运维·docker·容器
云飞云共享云桌面1 小时前
非标自动化工厂的设计云桌面为什么要选云飞云智能共享云桌面?
大数据·运维·服务器·网络·自动化·负载均衡