Hadoop服务端口号、Spark端口号、Hive端口号以及启动命令

文章目录

  • [1. 服务端口号](#1. 服务端口号)
    • [1.1 Hadoop相关的服务端口号](#1.1 Hadoop相关的服务端口号)
    • [1.2 Spark相关的服务端口号](#1.2 Spark相关的服务端口号)
    • [1.3 Hive的连接端口](#1.3 Hive的连接端口)
  • [2. 服务启动指令](#2. 服务启动指令)

1. 服务端口号

1.1 Hadoop相关的服务端口号

  • HDFS的web页面访问端口 9870
  • HDFS 的程序访问端口 8020
  • Yarn的访问端口 8088
  • 历史日志访问端口 19888

1.2 Spark相关的服务端口号

  • standalone 8080 查看资源调度
  • 历史日志 18080
  • 交互模式下 查看计算运行情况 4040

1.3 Hive的连接端口

  • 10000

2. 服务启动指令

  • Hadoop
python 复制代码
# 启动所有服务器
/export/server/hadoop/sbin/start-all.sh 
# 启动历史日志
/export/server/hadoop/bin/mapred --daemon start historyserver
  • Hive启动
python 复制代码
# 启动metastore
nohup hive --service  metastore >> /export/server/hive/metastore.log  2>&1 &
# 启动hiveserver
nohup hive --service  hiveserver2  >> /export/server/hive/hiveserver2.log  2>&1 &
  • zookeeper启动
python 复制代码
/export/server/zookeeper/bin/zkServer.sh start
  • Spark启动
python 复制代码
# standalone的启动
/export/server/spark/sbin/start-all.sh

# 历史日志启动
/export/server/spark/sbin/start-history-server.sh
相关推荐
Theodore_102221 分钟前
大数据(1) 大数据概述
大数据·hadoop·数据分析·spark·hbase
Aurora_NeAr30 分钟前
Apache Spark详解
大数据·后端·spark
IvanCodes2 小时前
六、Sqoop 导出
大数据·hadoop·sqoop
G探险者2 小时前
《深入理解 Nacos 集群与 Raft 协议》系列五:为什么集群未过半,系统就不可用?从 Raft 的投票机制说起
分布式·后端
G探险者2 小时前
《深入理解 Nacos 集群与 Raft 协议》系列一:为什么 Nacos 集群必须过半节点存活?从 Raft 协议说起
分布式·后端
G探险者3 小时前
《深入理解 Nacos 集群与 Raft 协议》系列四:日志复制机制:Raft 如何确保提交可靠且幂等
分布式·后端
G探险者3 小时前
《深入理解 Nacos 集群与 Raft 协议》系列三:日志对比机制:Raft 如何防止数据丢失与错误选主
分布式·后端
G探险者3 小时前
《深入理解 Nacos 集群与 Raft 协议》系列二:Raft 为什么要“选主”?选主的触发条件与机制详解
分布式·后端
代码匠心3 小时前
从零开始学Flink:揭开实时计算的神秘面纱
java·大数据·后端·flink