Kafka与MySQL的组合使用

  1. 根据上面给出的student表,编写Python程序完成如下操作:

(1)读取student表的数据内容,将其转为JSON格式,发送给Kafka;

创建Student表的SQL语句如下:

python 复制代码
create table student(
sno char(5),
sname char(10),
ssex char(2),
sage int
);

向student表中插入两条记录的SQL语句如下:

python 复制代码
insert into student values('95001','John','M',23);
insert into student values('95002','Tom','M',23);

启动zookeeper和kafka的服务

编写一个生产者程序mysql_producer.py:

python 复制代码
from kafka import KafkaProducer
import json
import pymysql.cursors

producer = KafkaProducer(bootstrap_servers='localhost:9092',value_serializer=lambda v:json.dumps(v).encode('utf-8'))

connect=pymysql.Connect(
    host='localhost',
    port=3306,
    user='root',
    passwd='123456',
    db='zhangna',
    charset='utf8'
)
cursor=connect.cursor()
sql="select sno,sname,ssex,sage from student;"
cursor.execute(sql)
data=cursor.fetchall()
connect.commit()

for message in data:
    zn={}
    zn['sno']=message[0]
    zn['sname']=message[1]
    zn['sex']=message[2]
    zn['age']=message[3]
    producer.send('mysql_topic',zn)

connect.close()
producer.close()

(2)再从Kafka中获取到JSON格式数据,打印出来;

编写一个消费者程序mysql_consumer.py:

python 复制代码
from kafka import KafkaConsumer
import json
import pymysql.cursors

consumer = KafkaConsumer('mysql_topic',bootstrap_servers=['localhost:9092'],group_id=None,auto_offset_reset='earliest')
for msg in consumer:
	msg1=str(msg.value,encoding="utf-8")
	data=json.loads(msg1)
	print(data)

终于出来了,出错的原因是encoding,我写成了encodings的缘故

为什么我会出现两条重复记录,原因是我生产者程序运行了多次,生产者多运行一次,消费者程序就会多一次查询

相关推荐
搜佛说4 分钟前
03-第3章-基础CRUD操作
数据库·物联网·边缘计算·iot·嵌入式实时数据库
Devin~Y23 分钟前
高并发内容社区实战面试:从 Java 基础到 Spring Cloud、Kafka、Redis、RAG 搜索全解析
java·spring boot·redis·spring cloud·kafka·向量数据库·rag
学到头秃的suhian26 分钟前
Kafka高性能
kafka
清水白石00826 分钟前
《从缓存到数据库:一致性之痛与工程之道》
数据库·python·缓存
cTz6FE7gA28 分钟前
Oracle RMAN物理备份Web系统
数据库·oracle
APguantou2 小时前
NCRE-三级数据库技术-第14章-数据仓库与数据挖掘
数据库·数据仓库·数据挖掘
刘~浪地球3 小时前
Redis 从入门到精通(十):管道技术
数据库·redis·缓存
fzb5QsS1p6 小时前
MySQL 事务的二阶段提交是什么?
数据库·mysql
清风徐来QCQ9 小时前
Lombok/SSM/devTools
数据库
LaughingZhu9 小时前
Product Hunt 每日热榜 | 2026-04-05
前端·数据库·人工智能·经验分享·神经网络