storm集群搭建

升级步骤

1.升级包上传

1.1上传apache-storm-2.2.0.tar.gz包

创建对应升级目录

将升级包apache-storm-2.2.0.tar.gz上传到新创建的目录下

复制代码
1.2 执行解压命令

tar -zxvf apache-storm-2.2.0.tar.gz

1.3 将解压后的文件额外复制到其他服务器上

复制代码
cp -r apache-storm-2.2.0 apache-storm-2.2.0-1
cp -r apache-storm-2.2.0 apache-storm-2.2.0-2

2.进行配置

2.1配置storm.yaml

在storm.yaml中修改以下内容

#zk集群的机器Ip

复制代码
storm.zookeeper.servers:
     - "20.200.175.82"
     - "20.200.175.83"
     - "20.200.175.84"

#storm集群的机器ip

复制代码
 nimbus.seeds: ["20.200.175.82", "20.200.175.83","20.200.175.84"]

#需更改为当前机器的路径

复制代码
 storm.local.dir: "/app/moni008/tools/apache-storm-2.2.0/status"
 storm.log.dir: "/app/moni008/tools/apache-storm-2.2.0/logs"


# stormui访问端口
ui.port: 6666
#worker配置
 worker.childopts: "-Xmx1024m -Xms1024m -Xmn300m -XX:+PrintGCDetails -Xloggc:artifacts/gc.log -XX:+PrintGCDateStamps -XX:+PrintGCTimeStamps -XX:+UseGCLogFileRotation -XX:NumberOfGCLogFiles=10 -XX:GCLogFileSize=1M -XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=artifacts/heapdump"

2.2编译Python3环境

上传Python-3.6.13.zip文件

执行解压命令

复制代码
unzip Python-3.6.13.zip

进入刚刚解压的文件夹下执行下面命令

复制代码
./configure --prefix=/实际安装路径
make && make install

安装完成后再根目录下创建etc/linux.env文件配置环境变量

复制代码
export PY_HOME=/实际安装路径
export PATH=${PY_HOME}/bin:$PATH

保存后 souce linux.env 刷新配置文件

输入python3验证是否安装成功

复制代码
3.服务启动

3.1.启动服务

跳转到apache-storm-2.2.0/bin 目录下

复制代码
执行 ./storm nimbus &
     ./storm supervisor &
 ./storm ui  &

3.2.查看服务是否启动成功

浏览器访问 http://ip:port

相关推荐
今天我又学废了2 小时前
Spark,SparkSQL操作Mysql, 创建数据库和表
大数据·mysql·spark
杰克逊的日记3 小时前
Flink运维要点
大数据·运维·flink
markuszhang7 小时前
Elasticsearch 官网阅读之 Term-level Queries
大数据·elasticsearch·搜索引擎
Hello World......8 小时前
Java求职面试:从核心技术到大数据与AI的场景应用
大数据·java面试·技术栈·互联网大厂·ai服务
python算法(魔法师版)10 小时前
.NET NativeAOT 指南
java·大数据·linux·jvm·.net
星川皆无恙10 小时前
大模型学习:Deepseek+dify零成本部署本地运行实用教程(超级详细!建议收藏)
大数据·人工智能·学习·语言模型·架构
L耀早睡11 小时前
mapreduce打包运行
大数据·前端·spark·mapreduce
姬激薄11 小时前
MapReduce打包运行
大数据·mapreduce
计算机人哪有不疯的11 小时前
Mapreduce初使用
大数据·mapreduce
菜鸟冲锋号11 小时前
Flink SQL、Hudi 、Doris在数据上的组合应用
大数据·flink