python使用scrapy-pyppeteer中间件使用代理IP

要提高scrapy-pyppeteer的效率,可以考虑以下几个方面:

  • 减少不必要的页面操作,如滚动、点击等,只执行对数据抓取有用的操作。
  • 使用pyppeteer_page_coroutines 参数传入一个可排序的迭代器(如列表、元组或字典),指定在返回响应之前需要在页面上执行的协程。这样可以避免多次调用page.evaluate方法。
  • 设置合理的并发数和下载延迟,避免过多的请求导致浏览器崩溃或被目标网站封禁。
  • 使用缓存或增量爬取,避免重复爬取相同的页面。
python 复制代码
# settings.py
# -*- coding: utf-8 -*-

Sydney = 'scrapy_pyppeteer'

SPIDER_MODULES = ['scrapy_pyppeteer.spiders']
NEWSPIDER_MODULE = 'scrapy_pyppeteer.spiders'

# 设置下载中间件
DOWNLOADER_MIDDLEWARES = {
    'scrapy_pyppeteer.middlewares.PyppeteerMiddleware': 543,
    'scrapy_pyppeteer.middlewares.RandomUserAgentMiddleware': 544,
}

# 设置请求头
DEFAULT_REQUEST_HEADERS = {
    'Accept': '*/*',
    'Accept-Language': 'en',
}

# 设置日志级别
LOG_LEVEL = "DEBUG"

# 设置pyppeteer启动选项
PYPPETEER_LAUNCH_OPTIONS = {
    # 是否显示浏览器界面,默认False
    "headless": False,
    # 是否忽略HTTPS错误,默认False
    "ignoreHTTPSErrors": True,
    # 添加代理服务器的地址,格式为host:port或protocol://host:port
    "args": ["--proxy-server=www.16yun.cn:31111"]
}

# 设置并发数,默认16
CONCURRENT_REQUESTS = 8

# 设置下载延迟,默认0秒
DOWNLOAD_DELAY = 1

# 启用缓存,默认False
HTTPCACHE_ENABLED = True
python 复制代码
# middlewares.py
# -*- coding: utf-8 -*-
import asyncio

import pyppeteer

from scrapy import signals, Request, Spider, http


class PyppeteerMiddleware:
    # 定义一个类属性browser,表示浏览器对象
    browser: pyppeteer.browser.Browser

    @classmethod
    def from_crawler(cls, crawler):
        # 创建中间件实例,并传入crawler对象作为参数
相关推荐
MYH5161 分钟前
汽车停车匹配充电桩随机森林
python·随机森林·汽车
鼓掌MVP10 分钟前
Python多线程编程:从GIL锁到实战优化
python
天天爱吃肉821816 分钟前
【十年技术演进深度解构:车载充电机(OBC)将成为新能源汽车的“能源大脑”】
python·嵌入式硬件·算法·汽车·能源
这里有鱼汤16 分钟前
有人说10日低点买入法,赢率高达95%?我不信,于是亲自回测了下…
后端·python
阿幸软件杂货间28 分钟前
video-audio-extractor【源码版】
python
灏瀚星空1 小时前
Python线性代数应用可视化:从矩阵变换到图像仿射
python·线性代数·矩阵
FAQEW1 小时前
爬虫的几种方式(使用什么技术来进行一个爬取数据)
爬虫·python
Amo Xiang10 小时前
Python 解释器安装全攻略(适用于 Linux / Windows / macOS)
linux·windows·python·环境安装
程序员杰哥10 小时前
接口自动化测试之pytest 运行方式及前置后置封装
自动化测试·软件测试·python·测试工具·职场和发展·测试用例·pytest
cooldream200910 小时前
利用 Scrapy 构建高效网页爬虫:框架解析与实战流程
爬虫·scrapy·架构