解决JPS少DataNode的情况

开启dfs服务和Hadoop服务时,datanode还是不能查询到进程

这个时候直接输入

复制代码
cd /opt/hadoop/    //这里是进入到你Hadoop的目录当中
hdfs --daemon start datanode

然后,等待命令执行重新输入JPS就可以了,开去试试吧。

加入一个小插曲:

使用Hadoop时出现无效错误提示ERROR: Invalid HADOOP_YARN_HOME

进入~/.bashrc文件中,在文件末位添加HADOOP_YARN_HOME路径,指向你Hadoop文件路径。

复制代码
export HADOOP_YARN_HOME=/opt/hadoop

然后再在普通用户下去使用Hadoop命令。

相关推荐
daad77715 小时前
schedule_fair
linux
小李独爱秋16 小时前
模拟面试:什么是容器技术,Docker是什么?
运维·docker·容器·面试·职场和发展
山峰哥16 小时前
SQL调优实战:从索引失效到性能飙升的破局之道
服务器·数据库·sql·性能优化·编辑器·深度优先
玩具猴_wjh16 小时前
JWT优化方案
java·服务器·数据库
yangyanping2010816 小时前
系统监控Prometheus之Docker安装部署Prometheus
运维·docker·容器·prometheus
盟接之桥16 小时前
制造业EDI数字化:连接全球供应链的桥梁
linux·运维·服务器·网络·人工智能·制造
一点多余.16 小时前
openGauss 企业版安装全流程指南
linux·数据库·opengauss·企业版
XiaoHu020717 小时前
Linux网络编程(第四弹)
linux·网络·智能路由器
金刚猿17 小时前
03_虚拟机中间件部署_Nacos 部署单机模式、配置鉴权
linux·中间件·nacos·配置鉴权
大梦想家~17 小时前
在职牛马,因为考过阿里云ACP,浅说下一次过的强度
运维·云计算·网络工程师·阿里云acp·云计算工程师·阿里云acp考试·阿里云acp备考