python消费rabbitmq

队列经常用,能保持信息一致性。也能跨语言,java写的生产者,推到队列中,python写的消费者消费。

这里,生成者,我们是java,已经发了一条消息了。

python是使用pika来链接rabbitmq

安装pika

pip install pika

代码

python 复制代码
import pika
#用户名密码,没有设置的可以省略这一步
credentials = pika.PlainCredentials('xxx','xxx')
connection = pika.BlockingConnection(pika.ConnectionParameters(
    host = "xxx",port = 5672, credentials = credentials
))
channel = connection.channel()

channel.queue_declare(queue = "xxx",durable=True)#如果是持久化队列就是True

def callback(ch,method,properties,body):
    body_parse=body.decode('utf-8')
    print("内容是"+body_parse)
    ch.basic_ack(delivery_tag=method.delivery_tag)

channel.basic_consume("auto_train_kantts", callback)
print("开始消费")
channel.start_consuming()
相关推荐
zhang23839061543 小时前
Kafka-可视化工具-Offset Explorer
分布式·kafka
fjkxyl3 小时前
Kafka 消息可靠性深度解析:大流量与小流量场景下的设计哲学
分布式·kafka
方二华9 小时前
分布式队列对消息语义的处理
分布式·kafka·rocketmq
API_technology10 小时前
《淘宝 API 数据湖构建:实时商品详情入湖 + Apache Kafka 流式处理指南》
数据库·分布式·数据挖掘·kafka·apache
晓看云起时10 小时前
kafka消息的顺序性如何保持一致的
分布式·kafka
凉白开33811 小时前
Spark-streaming
大数据·分布式·spark
佳腾_11 小时前
【分布式系统中的“瑞士军刀”_ Zookeeper】三、Zookeeper 在实际项目中的应用场景与案例分析
分布式·zookeeper·云原生
lix的小鱼13 小时前
如何搭建spark yarn模式的集群
大数据·分布式·spark
冼紫菜13 小时前
[特殊字符] Docker 从入门到实战:全流程教程 + 项目部署指南(含镜像加速)
运维·分布式·后端·docker·云原生·容器
智汇优库14 小时前
Rabbitmq下载和安装(Windows系统,百度网盘)
windows·分布式·rabbitmq