如何设置爬虫的延时避免被封禁

在使用爬虫获取数据时,合理设置延时是避免被目标网站封禁的关键策略之一。以下是一些常见的方法和技巧:

一、使用 time.sleep() 设置固定延时

time.sleep() 是 Python 中最常用的延时方法,可以在每次请求之间设置固定的延时,从而降低请求频率。

Python

python 复制代码
import time
import requests

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/123.0.0.0 Safari/537.36"
}

urls = ["http://example.com/page1", "http://example.com/page2"]  # 示例URL列表

for url in urls:
    response = requests.get(url, headers=headers)
    time.sleep(1)  # 每次请求间隔1秒

二、使用随机延时

为了更好地模拟真实用户的行为,可以设置随机延时。这可以通过 random.uniform()random.randint() 实现。

Python

python 复制代码
import time
import random
import requests

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/123.0.0.0 Safari/537.36"
}

urls = ["http://example.com/page1", "http://example.com/page2"]  # 示例URL列表

for url in urls:
    response = requests.get(url, headers=headers)
    delay = random.uniform(0.5, 2.0)  # 随机延时0.5到2秒
    time.sleep(delay)

三、使用 Scrapy 框架的 DOWNLOAD_DELAY 设置延时

如果你使用的是 Scrapy 框架,可以通过设置 DOWNLOAD_DELAY 来控制请求间隔。

Python

python 复制代码
# 在 settings.py 中设置
DOWNLOAD_DELAY = 2  # 每次请求间隔2秒

此外,还可以结合 RandomDelayMiddleware 实现随机延时。

四、使用代理服务器

使用代理服务器可以隐藏真实 IP 地址,降低被封禁的风险。可以结合 requests 库使用代理。

Python

python 复制代码
import requests
import random

proxy_list = [
    {"http": "http://proxy1.example.com:8080"},
    {"http": "http://proxy2.example.com:8080"},
]

url = "http://example.com/data"

for _ in range(5):  # 示例:发送5次请求
    proxy = random.choice(proxy_list)
    response = requests.get(url, proxies=proxy)
    time.sleep(1)  # 每次请求间隔1秒

五、结合其他策略

除了设置延时,还可以结合其他策略来降低被封禁的风险:

  • 随机更换 User-Agent:模拟不同的浏览器访问。

  • 遵守 robots.txt 文件:遵循目标网站的爬取规则。

  • 使用会话和 Cookies:模拟真实用户的浏览行为。

六、总结

合理设置延时是避免爬虫被封禁的重要策略。通过使用 time.sleep() 设置固定延时、使用随机延时、结合 Scrapy 框架的 DOWNLOAD_DELAY、使用代理服务器以及结合其他策略,可以有效降低爬虫被封禁的风险。在实际应用中,建议根据目标网站的实际情况灵活调整延时策略。

相关推荐
程序员老邢4 分钟前
【产品底稿 04】商助慧 V1.1 里程碑:爬虫入库 + MySQL + Milvus 全链路打通
java·爬虫·mysql·ai·springboot·milvus
ZC跨境爬虫13 小时前
【爬虫实战对比】Requests vs Scrapy 笔趣阁小说爬虫,从单线程到高效并发的全方位升级
前端·爬虫·scrapy·html
ZC跨境爬虫16 小时前
【Scrapy实战避坑】5sing网站爬虫从0到1,踩遍动态渲染、正则匹配全坑(附完整解决方案)
爬虫·scrapy
ZC跨境爬虫1 天前
Scrapy实战爬取5sing网站:Pipeline优化+全流程踩坑复盘,从报错到数据落地
前端·爬虫·python·scrapy
码农很忙1 天前
爬虫与反爬虫攻防战:技术解析与实战指南
爬虫
大數據精準工單獲取1 天前
【数据抓取】 编写爬虫基本请求:使用爬虫框架发送 HTTP 请求,获取网页内容
爬虫·网络协议·http
IP老炮不瞎唠1 天前
为什么Python爬虫需要代理 IP?原理与应用详解
爬虫·python·tcp/ip
AI_Claude_code1 天前
网络基础回顾:DNS、IP封锁与HTTP/S协议关键点
网络·爬虫·python·tcp/ip·http·爬山算法·安全架构
AI_Claude_code2 天前
ZLibrary访问困境方案四:利用Cloudflare Workers等边缘计算实现访问
javascript·人工智能·爬虫·python·网络爬虫·边缘计算·爬山算法
AI_Claude_code2 天前
ZLibrary访问困境方案三:Web代理与轻量级转发服务的搭建与优化
爬虫·python·web安全·搜索引擎·网络安全·web3·httpx