解决JPS少DataNode的情况

开启dfs服务和Hadoop服务时,datanode还是不能查询到进程

这个时候直接输入

复制代码
cd /opt/hadoop/    //这里是进入到你Hadoop的目录当中
hdfs --daemon start datanode

然后,等待命令执行重新输入JPS就可以了,开去试试吧。

加入一个小插曲:

使用Hadoop时出现无效错误提示ERROR: Invalid HADOOP_YARN_HOME

进入~/.bashrc文件中,在文件末位添加HADOOP_YARN_HOME路径,指向你Hadoop文件路径。

复制代码
export HADOOP_YARN_HOME=/opt/hadoop

然后再在普通用户下去使用Hadoop命令。

相关推荐
郝学胜-神的一滴4 分钟前
Effective Python 第52条:用subprocess模块优雅管理子进程
linux·服务器·开发语言·python
晨枫阳20 分钟前
不同语言数组详解
linux·服务器·windows
q***75181 小时前
Linux(CentOS)安装 MySQL
linux·mysql·centos
iru1 小时前
kubectl cp详解,k8s集群与本地环境文件拷贝
运维·容器·k8s
CS_浮鱼2 小时前
【Linux】线程
linux·c++·算法
q***13344 小时前
Linux(CentOS)安装 Nginx
linux·nginx·centos
摘星编程4 小时前
openGauss 快速上手:CentOS 环境下单机部署完整指南
linux·运维·centos
哈里谢顿9 小时前
使用kvm创建一台虚拟机
linux
大喵桑丶9 小时前
中间件快速部署(Nginx,Keepalived)
运维·nginx·中间件
hanyi_qwe10 小时前
文本三剑客--awk
linux·运维·服务器