Hadoop问题:start-all.sh显示未找到命令

在sbin文件夹下是start-all.sh可以运行的,但是到了别的文件夹下就不行了,于是想到了是文件路径问题,因为hadoop环境是和java环境一起配置的导致sbin写成了bin

解决办法:

打开.bashrc配置hadoop的环境变量

复制代码
sudo vim ~/.bashrc 

配置hadoop环境变量

这里的/apps/hadoop是我的hadoop的默认安装路径,可根据自己的实际情况改写即可

下面我保留了$HADOOP_HOME/bin这个是因为我另外一个bug,(hadoop命令无法直接运行)

本文的错误只用加后面一个即可(嫌麻烦的可以直接复制下面的)

复制代码
export PATH=$HADOOP_HOME/sbin:$PATH

退出保存

执行代码让环境变量生效:

复制代码
source ~/.bashrc 

然后在执行start-all.sh

发现就可以了,其实当能自动补全代码时说明就已经配置好了。

(补充)其实也有其他方法,就是在profile中设置环境变量,但一般不建议在这配置,因为在这个文件中配置是对所有用户起作用,(也可以指定用户,感兴趣的可以自己去了解一下)

说一下方法:

编辑文件

复制代码
sudo vim /etc/profile

同样的在空白位置添加上面的代码(环境配置),就不赘叙了

环境生效

复制代码
source /etc/profile
相关推荐
Edingbrugh.南空42 分钟前
Hive 3.x数据静态脱敏与加密
数据仓库·hive·hadoop
K·Herbert1 小时前
最新CentOS 7 yum源失效的解决方案(2025年6月)
linux·运维·centos
C++ 老炮儿的技术栈1 小时前
VSCode -配置为中文界面
大数据·c语言·c++·ide·vscode·算法·编辑器
别骂我h1 小时前
部署KVM虚拟化平台
linux·运维·服务器
繢鴻1 小时前
紧急救援!Ubuntu崩溃修复大赛
linux·服务器·ubuntu
白鲸开源2 小时前
SQL Server CDC 机制全解:如何用 SeaTunnel 构建高效实时数据同步方案
大数据
小巫程序Demo日记2 小时前
Spark简介脑图
大数据·笔记·spark
武子康2 小时前
大数据-14-Hive HQL 表连接查询 HDFS导入导出 逻辑运算 函数查询 全表查询
大数据·后端·apache hive
春马与夏2 小时前
多参表达式Hive UDF
数据仓库·hive·hadoop
ThisIsClark2 小时前
什么是Hive
数据仓库·hive·hadoop