Python爬虫之增量式爬虫

相关介绍

增量式爬虫是一种用于爬取网页信息的技术,它与全量式爬虫相比具有更高效和节省资源的特点。

增量式爬虫的基本原理是通过比较已爬取的数据和新爬取的数据,只爬取和更新最新的数据。它会记录上一次爬取的状态,将新爬取的数据和已有的数据进行匹配和对比,只提取出新数据并进行存储。

增量式爬虫的优势在于可以减少对目标网站的访问次数和资源消耗,同时也能够保证数据的及时更新。它能够根据需求定制爬取规则,从而提高爬取的效率和精确度,减少重复爬取的数据。

增量式爬虫一般包括以下几个步骤:

  1. 初始化:设置爬取的起始点和爬取规则。

  2. 爬取网页:按照规定的规则和策略爬取网页内容,并将爬取的数据存储到数据库中。

  3. 数据对比和更新:将新爬取的数据与已有的数据进行对比,判断是否是新的数据。如果是新数据,则进行存储更新。

  4. 持续爬取:根据设定的规则和策略,定时或定量地进行持续的爬取和更新。

通过增量式爬虫,可以实现对目标网站数据的高效爬取和及时更新,提高了爬取的效率和精确度,减少了资源的浪费和重复爬取的数据量。

项目案例实战

前言:

本次案例基于Scrapy的CrawlSpider快速爬取,以及Scrapy-Redis的数据储存,来爬取电影网站标题和详情介绍

eight.py为开始创建CrawlSpider的项目名,其余全部自动生成

全部所需文件:

eight.py文件代码

python 复制代码
import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from redis import Redis
from eightBlood.items import EightbloodItem


class EightSpider(CrawlSpider):
    name = "eight"
    # allowed_domains = ["www.baidu.com"]
    start_urls = ["http://kan.znds.com/movie/"]

    # 根据每个url规律写出正则表达式
    rules = (Rule(LinkExtractor(allow=r"p_\d+"), callback="parse_item", follow=False),)

    # 连接Redis数据库
    conn=Redis(host='127.0.0.1',port=6379)

    # 解析每个页码对应页面中电影的url
    def parse_item(self, response):
       div_list=response.xpath("/html/body/section[3]/div")
       # 获取详情页的url
       for div in div_list:
           detail_url="http://kan.znds.com"+div.xpath("./a/@href").extract_first()

           # 将爬取的每个电影详情页url存储到redis的urls中
           ex=self.conn.sadd('urls',detail_url)

           # 对是否爬取过的数据进行判断
           if(ex==1):
               print("该url没有被爬取过,可以进行数据的爬取")
               yield scrapy.Request(url=detail_url,callback=self.parse_detail)
           else:
               print("数据还没更新,暂时无数据可以爬取!")

    # 保存爬取的电影名和电影描述到item中
    def parse_detail(self, response):
        item=EightbloodItem()
        item['name']=response.xpath("/html/body/section[2]/div[2]/article/h1/a/text()").extract_first()
        item['desc']=response.xpath("/html/body/section[3]/span/p/text()").extract()
        item['desc']=''.join(item['desc'])
        yield item;

items.py文件

python 复制代码
import scrapy


class EightbloodItem(scrapy.Item):
    name= scrapy.Field()
    desc = scrapy.Field()
复制代码
pipelines.py文件
python 复制代码
from itemadapter import ItemAdapter

class EightbloodPipeline:
    conn=None
    def open_spider(self,spider):
        self.conn=spider.conn

    def process_item(self, item, spider):
        data={
            'name':item['name'],
            'desc':item['desc']
        }

        # 输出字典对象
        print(data)
        self.conn.lpush('MovieData',str(data))
        return item

setting.py文件设置

python 复制代码
ROBOTSTXT_OBEY = False

LOG_LEVEL='ERROR'

USER_AGENT="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36 Edg/122.0.0.0"

ITEM_PIPELINES = {
   "eightBlood.pipelines.EightbloodPipeline": 300,
}

运行项目:

打开redis服务器

cmd打命令行cd 项目,输入scrapy crawl eight

运行过程:

运行结果:

相关推荐
q5673152316 分钟前
在 Bash 中获取 Python 模块变量列
开发语言·python·bash
是萝卜干呀16 分钟前
Backend - Python 爬取网页数据并保存在Excel文件中
python·excel·table·xlwt·爬取网页数据
代码欢乐豆17 分钟前
数据采集之selenium模拟登录
python·selenium·测试工具
许野平41 分钟前
Rust: 利用 chrono 库实现日期和字符串互相转换
开发语言·后端·rust·字符串·转换·日期·chrono
也无晴也无风雨44 分钟前
在JS中, 0 == [0] 吗
开发语言·javascript
狂奔solar1 小时前
yelp数据集上识别潜在的热门商家
开发语言·python
Tassel_YUE1 小时前
网络自动化04:python实现ACL匹配信息(主机与主机信息)
网络·python·自动化
聪明的墨菲特i1 小时前
Python爬虫学习
爬虫·python·学习
blammmp1 小时前
Java:数据结构-枚举
java·开发语言·数据结构
何曾参静谧2 小时前
「C/C++」C/C++ 指针篇 之 指针运算
c语言·开发语言·c++