02 RabbitMQ:下载&安装

02 RabbitMQ:下载&安装

  • [1. 下载&安装](#1. 下载&安装)
    • [1.1. 官网](#1.1. 官网)
    • [1.2. Docker方式](#1.2. Docker方式)
      • [1.2.1. 下载镜像](#1.2.1. 下载镜像)
      • [1.2.2. 启动](#1.2.2. 启动)
      • [1.2.3. 登录验证](#1.2.3. 登录验证)

1. 下载&安装

1.1. 官网

RabbitMQ: One broker to queue them all | RabbitMQ

1.2. Docker方式

1.2.1. 下载镜像

shell 复制代码
# docker pull 镜像名称[:TAG] (不标注版本,默认下载最新版)
sudo docker pull rabbitmq

1.2.2. 启动

shell 复制代码
sudo docker run -d \
--name rabbitmq-server \
-p 5672:5672 \
-p 15672:15672 \
-e RABBITMQ_DEFAULT_USER=admin \
-e RABBITMQ_DEFAULT_PASS=123456 \
rabbitmq:latest

命令详解:

参数 详解
-d 以分离模式运行容器,在后台运行。
--name rabbitmq-server 为容器指定一个名字,这里是 rabbitmq。
-p 5672:5672 将容器的 5672 端口映射到宿主机的 5672 端口,这是 RabbitMQ 的 AMQP 端口。
-p 15672:15672 将容器的 15672 端口映射到宿主机的 15672 端口,这是 RabbitMQ 的管理界面端口。
-e RABBITMQ_DEFAULT_USER=admin 设置 RabbitMQ 的默认用户。注意,从 RabbitMQ 3.8 开始,默认用户 guest 只能从 localhost 访问。如果您想从远程访问,您需要创建一个新的用户。
-e RABBITMQ_DEFAULT_PASS=123456 设置 RabbitMQ 的默认密码
rabbitmq:latest 要运行的镜像名称。:latest 标签是镜像的版本

1.2.3. 登录验证

登录地址: http://192.168.188.129:15672/

首次登陆可能会出现如下问题:

解决方案:

(1)进入容器

shell 复制代码
sudo docker exec -it 【容器id】 /bin/bash

(2)开启界面插件

shell 复制代码
rabbitmq-plugins enable rabbitmq_management

(3)退出容器

shell 复制代码
exit

(4)重启docker

shell 复制代码
sudo systemctl restart docker

(5)启动容器

shell 复制代码
sudo docker start 【容器id】

刷新页面,就可以看到启动页面。


本文隶属于 【个人专栏】:06 RabbitMQ 📋📋📋

到这里 02 RabbitMQ:下载&安装 就结束了!!!🎉🎉🎉

后续接 03 RabbitMQ:HelloWorld 📣📣📣

欢迎小伙伴们学习和指正!!!😊😊😊

祝大家学习和工作一切顺利!!!😎😎😎

相关推荐
Monly215 小时前
RabbitMQ:数据隔离
分布式·rabbitmq
萧鼎9 小时前
Python pyzmq 库详解:从入门到高性能分布式通信
开发语言·分布式·python
卡拉叽里呱啦12 小时前
缓存-变更事件捕捉、更新策略、本地缓存和热key问题
分布式·后端·缓存
BD_Marathon14 小时前
Kafka文件存储机制
分布式·kafka
Monly2115 小时前
RabbitMQ:SpringAMQP 入门案例
spring boot·rabbitmq·java-rabbitmq
Monly2115 小时前
RabbitMQ:SpringAMQP Fanout Exchange(扇型交换机)
spring boot·rabbitmq·java-rabbitmq
哈哈很哈哈15 小时前
Spark 运行流程核心组件(三)任务执行
大数据·分布式·spark
jakeswang21 小时前
应用缓存不止是Redis!——亿级流量系统架构设计系列
redis·分布式·后端·缓存
不久之1 天前
大数据服务完全分布式部署- 其他组件(阿里云版)
分布式·阿里云·云计算
Direction_Wind1 天前
粗粮厂的基于spark的通用olap之间的同步工具项目
大数据·分布式·spark