【爬虫框架-8】其他

Funspider 分布式爬虫框架概览

一、核心特性

1.1 数据入库机制

ItemBuffer 批量入库设计

借鉴 Feapder 的 ItemBuffer 机制,实现高效的批量数据入库:

python 复制代码
class ItemBuffer:
    """
    数据缓冲管理器
    
    功能:
    - 批量缓冲:数据达到阈值后批量写入,减少数据库IO
    - 多 Pipeline 支持:同时支持 MySQL、MongoDB、Elasticsearch 等
    - 失败重试:入库失败自动重试,超过次数存入 Redis
    - 去重处理:支持内存去重和 Redis 去重
    """
    
    def __init__(self, spider_name: str, 
                 batch_size: int = 100,
                 max_retry_times: int = 3):
        self._items_queue = Queue(maxsize=10000)
        self._pipelines = []
        self._dedup_cache = set()  # 内存去重
        self.batch_size = batch_size
        self.max_retry_times = max_retry_times

核心流程

  1. 数据收集 :解析方法 yield Item() 后,Item 进入队列
  2. 批量缓冲 :队列达到 batch_size 或超时触发刷新
  3. 去重过滤 :基于 fingerprint 进行去重
  4. Pipeline 链式处理:按优先级依次调用 Pipeline
  5. 失败重试:失败后重试,超过次数存入 Redis

代码示例

python 复制代码
# 在爬虫中使用
def parse_detail(self, request, response):
    item = Item()
    item.table_name = 'products'
    item.title = response.xpath('//h1/text()').get()
    item.price = response.xpath('//span[@class="price"]/text()').get()
    
    yield item  # 自动进入 ItemBuffer

1.2 去重机制

继承 Feapder 的去重方案

支持多种去重策略,兼容 Feapder 的去重过滤器:

python 复制代码
from funspider.dedup import BloomFilter, ExpireFilter

# 1. 布隆过滤器(内存高效)
dedup = BloomFilter(
    redis_url='redis://localhost:6379/0',
    key='spider:dedup:products',
    bit_size=10000000  # 1000万位
)

# 2. 带过期时间的去重(适合增量爬取)
dedup = ExpireFilter(
    redis_url='redis://localhost:6379/0',
    key='spider:dedup:products',
    expire_time=86400  # 24小时过期
)

去重指纹生成

python 复制代码
class Item:
    @property
    def fingerprint(self) -> str:
        """生成数据指纹用于去重"""
        data = {}
        for key, value in self.__dict__.items():
            if not key.startswith('_'):
                data[key] = value
        
        fingerprint_str = json.dumps(data, sort_keys=True, ensure_ascii=False)
        return hashlib.md5(fingerprint_str.encode()).hexdigest()

Request 去重

python 复制代码
# Funboost 自带的消息去重机制
booster.publish(
    request.to_dict(),
    task_id=task_id,
    # Funboost 会根据 task_id 自动去重
)

二、框架定位与局限性

2.1 与 其他爬虫框架相比 对比

缺少的功能

  1. AirSpider(轻量级爬虫)
    • Feapder 的 AirSpider 支持单脚本运行,无需 Redis/MySQL
    • Funspider 必须依赖 Redis 作为消息队列,不适合简单任务
  2. Spider(单机爬虫)
    • Feapder 的 Spider 类似 Scrapy,适合中小型项目
    • Funspider 强依赖分布式架构,小项目过于复杂
  3. 内置下载器
    • Feapder 内置多种下载器(requests、selenium、playwright)
    • Funspider 需要用户自行实现下载逻辑
    • 可以尝试将浏览器单独封装api ,每个tab 一个任务,节省资源。爬虫使用api 下载。

2.2 适用场景

Funspider 适合的场景

  • 长周期任务:持续运行数月甚至数年的数据采集
  • 大规模爬取:数千万甚至数亿级别的数据量
  • 分布式部署:需要多台机器协同工作
  • 复杂调度:多层级的请求依赖关系(列表页→详情页→评论页)

不适合的场景

  • 一次性数据采集(推荐使用 Scrapy /feapder)
  • 小规模项目(< 10万数据,推荐 Feapder AirSpider)
  • 快速原型开发(推荐 Funboost 自带的 boost_spider)

boost_spider 示例(更简单):


三、框架现状与未来规划

3.1 当前状态

已实现的核心功能

  • 分布式请求调度(基于 Funboost)
  • ItemBuffer 批量入库
  • 多 Pipeline 支持(MySQL、MongoDB、Elasticsearch)
  • 去重机制(内存 + Redis)
  • 全链路追踪(Trace/Span)
  • 失败数据恢复
  • Web 管理界面(funboost自带了一个队列管理可以使用)
  • 存在的问题
  1. 代码质量
    • 部分代码耦合度高,需要重构
    • 注释和文档不够完善

3.2 TODO 清单

优先级 1:运维工具

1. Web 管理后台

2. 任务发布系统

3. 链路追踪可视化

优先级 2:代码重构
  1. 解耦核心模块
    • 将 Worker、Engine、ItemBuffer 完全分离
    • 统一接口规范,便于扩展

3.3 开源计划

开源时机

完成以下条件后考虑开源:

  1. 代码质量达标
    • 重构完成,模块清晰
    • 文档完善

项目将在代码质量达标后开源,敬请期待!

相关推荐
B2_Proxy22 分钟前
IP 来源合规性,正在成为全球业务的隐性门槛
网络·爬虫·网络协议·安全
Hello.Reader1 小时前
面向 403 与域名频繁变更的合规爬虫工程实践以 Libvio 系站点为例
爬虫·python·网络爬虫
m0_663234011 小时前
Libvio.link爬虫技术与反爬攻防解析
爬虫
Serendipity_Carl2 小时前
1637加盟网数据实战(数分可视化)
爬虫·python·pycharm·数据可视化·数据清洗
瑶池酒剑仙4 小时前
Libvio.link爬虫技术解析大纲
爬虫·python
喵手5 小时前
Python爬虫实战:构建 Steam 游戏数据库:requests+lxml 实战游戏列表采集与价格监控(附JSON导出 + SQLite持久化存储)!
爬虫·python·爬虫实战·零基础python爬虫教学·采集steam商店游戏列表数据·sqlite数据库存放采集数据·价格监控游戏推荐市场分析
zhengfei6115 小时前
高级网络安全爬虫/蜘蛛
爬虫
恬淡如雪6 小时前
Excel接口测试自动化实战
爬虫·python·excel
m0_663234016 小时前
Libvio.link爬虫技术全解析
爬虫
深蓝电商API6 小时前
httpx库异步爬虫实战对比aiohttp
爬虫·httpx