Python网络爬虫实战——实验8:Python爬虫项目部署与kafka消息队实战

【实验内容】

本实验主要介绍关于在Linux云环境下部署和运行爬虫项目并使用kafka发送消息队列。

【实验目的】

1、学会在云环境中部署爬虫项目

2、掌握Kafka消息队列的基本使用

3、实现爬虫与消息队列的集成

【实验步骤】

步骤1 在Linux上部署爬虫项目

步骤2 Kafka消息队列的基本使用

步骤3 在python中向kafka推送消息

步骤1:在云环境中部署爬虫项目

(1) 使用pycharm部署爬虫项目

在pycharm中点击如上图所示的Configuration

-*******************************************************************************

-********************************************************************************

点击上图所示按钮进入云服务器的配置。

-***************************************************************************

输入域名、用户名、地址后点击Test Connection测试连接

-**********************************************************************************

连接成功后,点击Mappings配置路径映射,local path 表示window 上爬虫项目的路径,Deployment path 是Linux服务器上项目存放的路径。

-***************************************************************************************

右击项目根目录,选择将整个项目上传至你所连接的服务器。如下图所示

-*********************************************************************************

(2) 数据库迁移


使用navicat将本地数据库转存为sql文件,保存结构和数据。然后连接上我们的linux服务器,运行sql文件(如下图所示)即可完成数据表和数据内容的迁移。

-*********************************************************************

(3) python虚拟环境
(4) 项目运行

Python manage.py runserver

后台运行 nohup python manage.py runserver 2>&1 &

/============================================================
=========================================================================================================================
/
2>&1: /============================================================
=========================================================================================================================
/

-&: /===================================================================
==================
/

-**********************************************************************************

项目运行成功如上图所示,当到达定时点时候,就会开始自动运行脚本程序进行数据采集。
步骤2 Kafka消息队列的基本使用

Kafka 是一个分布式流处理平台,通常被用于构建实时数据管道和流应用程序。它提供了高吞吐量、容错性和可伸缩性的特性。

复制代码
创建一个主题(Topic):在 Kafka 中,数据被组织成主题。主题是消息的分类,生产者将消息发送到主题,而消费者从主题订阅消息。
/*=============================================================================================================================================================*/
/*==============================================================================================================================================================*/
/*===============================================================================================================================================================================*/
消息的序列化和反序列化:默认情况下,Kafka 接收和发送的消息是字节数组。在实际应用中,你需要使用序列化器将消息转换为特定的格式。常见的选择包括 JSON、Avro 等。在生产者和消费者配置中,你可以指定相应的序列化和反序列化器。
Kafka 集群:在生产环境中,通常会运行多个 Kafka 服务器组成集群,以提高容错性和可伸缩性。确保生产者和消费者配置中指定了所有 Kafka 服务器的地址。

-***************************************************************************

步骤3 在python中向kafka推送消息

(1) 安装包

pip install confluent_kafka

(2) 发送消息

-****************************************************************************

-**********************************************************************

根据环境变量 'django_env' 的值选择 Kafka 服务器地址,如果 'django_env' 的值为'production',则使用 192.168.0.151:9092否则,使用 192.168.0.228:9092

/============================================================
=========================================================================================================================
/

-***************************************************************************

在数据采集时候,通过调用send_kafka_message方法,向yunnan_zhong这个主题推送消息

-*********************************************************************************

在服务器上可以接收到上图所示的消息示例。

相关推荐
程序员果子12 分钟前
macOS Python 安装
python·macos
LetsonH26 分钟前
⭐CVPR2025 RoboBrain:机器人操作的统一大脑模型[特殊字符]
人工智能·python·深度学习·计算机视觉·机器人
站大爷IP2 小时前
Django缓存机制详解:从配置到实战应用
python
叫我:松哥2 小时前
基于Python的实习僧招聘数据采集与可视化分析,使用matplotlib进行可视化
开发语言·数据库·python·课程设计·matplotlib·文本挖掘
站大爷IP2 小时前
Django模型开发全解析:字段、元数据与继承的实战指南
python
赵英英俊2 小时前
Python day37
人工智能·python·深度学习
澡点睡觉2 小时前
golang的面向对象编程,struct的使用
开发语言·爬虫·golang
华科云商xiao徐3 小时前
基于Go的抗封禁爬虫引擎设计
爬虫·数据挖掘·数据可视化
5173 小时前
Scrapy爬虫集成MongoDB存储
爬虫·scrapy·mongodb