解决JPS少DataNode的情况

开启dfs服务和Hadoop服务时,datanode还是不能查询到进程

这个时候直接输入

复制代码
cd /opt/hadoop/    //这里是进入到你Hadoop的目录当中
hdfs --daemon start datanode

然后,等待命令执行重新输入JPS就可以了,开去试试吧。

加入一个小插曲:

使用Hadoop时出现无效错误提示ERROR: Invalid HADOOP_YARN_HOME

进入~/.bashrc文件中,在文件末位添加HADOOP_YARN_HOME路径,指向你Hadoop文件路径。

复制代码
export HADOOP_YARN_HOME=/opt/hadoop

然后再在普通用户下去使用Hadoop命令。

相关推荐
黄毛火烧雪下37 分钟前
【Ruby 】脚本和自动化语言 常用的内容
运维·自动化·ruby
Madison-No71 小时前
【Linux】gcc/g++编辑器 && 初识动静态库 && 程序翻译过程
linux·服务器
小白不想白a2 小时前
【shell】每日shell练习:安全日志入侵检测/系统配置文件合规检查
运维·服务器
字节逆旅3 小时前
一个从从容容,一个连滚带爬:scp 与 rsync 的不同人生
linux
洛克大航海3 小时前
Linux 中新建用户
linux·运维·服务器
位步3 小时前
在linux系统中使用通用包安装 Mysql
android·linux·mysql
dehuisun3 小时前
jenkins流水线部署springboot项目
运维·jenkins
蜜蜜不吃糖4 小时前
解决Vcenter告警datastore存储容量不足问题
linux·运维·服务器
zzz.104 小时前
top命令的详解
linux·服务器·网络
东城绝神4 小时前
《Linux运维总结:基于ARM64+X86_64架构CPU使用docker-compose一键离线部署redis 7.4.5容器版分片集群》
linux·运维·redis·架构·分片集群