Hadoop问题:start-all.sh显示未找到命令

在sbin文件夹下是start-all.sh可以运行的,但是到了别的文件夹下就不行了,于是想到了是文件路径问题,因为hadoop环境是和java环境一起配置的导致sbin写成了bin

解决办法:

打开.bashrc配置hadoop的环境变量

复制代码
sudo vim ~/.bashrc 

配置hadoop环境变量

这里的/apps/hadoop是我的hadoop的默认安装路径,可根据自己的实际情况改写即可

下面我保留了$HADOOP_HOME/bin这个是因为我另外一个bug,(hadoop命令无法直接运行)

本文的错误只用加后面一个即可(嫌麻烦的可以直接复制下面的)

复制代码
export PATH=$HADOOP_HOME/sbin:$PATH

退出保存

执行代码让环境变量生效:

复制代码
source ~/.bashrc 

然后在执行start-all.sh

发现就可以了,其实当能自动补全代码时说明就已经配置好了。

(补充)其实也有其他方法,就是在profile中设置环境变量,但一般不建议在这配置,因为在这个文件中配置是对所有用户起作用,(也可以指定用户,感兴趣的可以自己去了解一下)

说一下方法:

编辑文件

复制代码
sudo vim /etc/profile

同样的在空白位置添加上面的代码(环境配置),就不赘叙了

环境生效

复制代码
source /etc/profile
相关推荐
Sheffield6 小时前
Docker的跨主机服务与其对应的优缺点
linux·网络协议·docker
武子康10 小时前
大数据-242 离线数仓 - DataX 实战:MySQL 全量/增量导入 HDFS + Hive 分区(离线数仓 ODS
大数据·后端·apache hive
Sheffield14 小时前
Alpine是什么,为什么是Docker首选?
linux·docker·容器
SelectDB1 天前
易车 × Apache Doris:构建湖仓一体新架构,加速 AI 业务融合实践
大数据·agent·mcp
Johny_Zhao1 天前
centos7安装部署openclaw
linux·人工智能·信息安全·云计算·yum源·系统运维·openclaw
haibindev1 天前
在 Windows+WSL2 上部署 OpenClaw AI员工的实践与踩坑
linux·wsl2·openclaw
武子康2 天前
大数据-241 离线数仓 - 实战:电商核心交易数据模型与 MySQL 源表设计(订单/商品/品类/店铺/支付)
大数据·后端·mysql
IvanCodes2 天前
一、消息队列理论基础与Kafka架构价值解析
大数据·后端·kafka
武子康3 天前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive