爬虫工作量由小到大的思维转变---<第二章 代理池与异常处理>

前言:

今天我们聊一聊如何在我们的爬虫项目中高效利用代理池,以及在不可预知的网络世界中巧妙应对那些经常头疼的异常。作为爬虫团队的一份子,我相信大家对"我的IP被封了!"这句话肯定不会感到陌生。所以咱们首先得聊聊怎么管理我们的秘密武器------代理池。

代理池管理术

想象一下,我们手里的代理池就像一盘混沌的棋局,我们需要通过一番策略去逐一拿下。显而易见,第一步就是确保棋子------也就是我们的代理IP------是活的。我们通常会用 Redis 来存储并管理这些IP。为啥用 Redis?因为它快,而且支持高效的集合操作,正好适合我们这种需要快速轮换IP的场景。

我们从Redis撸了一些IP,是不是很酷?

python 复制代码
async def get_proxy_ips(self):
    if self.PROXY_IPS is None:
        self.PROXY_IPS = await fetch_fresh_proxies()
    return self.PROXY_IPS
通过这样的异步函数,我们能够确保在IP耗尽的时候,再次获取一批新鲜的IP准备投入战斗。

当网络抛异常时怎么办?

网络总是喜欢玩躲猫猫,得时刻准备着应对它的小心眼。我们已经设计了 `fetch_url` 方法来处理发起网络请求,其中包含重试的逻辑。这个方法很精彩,它就像是我们的攻城槌,不断敲打着目标网站。不过,万一对面打起了盾墙怎么办?比如,代理IP翻车了,或者连接超时了。咱们需要备好副牌,也就是`report_invalid_proxy` 这个小伙伴。
python 复制代码
# 这个方法负责挥一挥大锤,有时候也会碰到点儿小麻烦。
async def fetch_url(self, session, url):
    if not self.PROXY_IPS:
        self.PROXY_IPS = await fetch_fresh_proxies()

    for attempt in range(self.MAX_RETRIES):
        if not self.PROXY_IPS:
            self.PROXY_IPS = await fetch_fresh_proxies()
        # ...

        try:
            # 尝试使用代理发起请求...
        except Exception as oops:
            # 出错啦,得记下这个不靠谱的代理
            await self.report_invalid_proxy(proxy_ip)
每次请求失败时,我们不只是简单地打个叉叉,我们还会把此次请求的代理IP记录下来,之后会统一处理。

异常处理,深入剖析

走入异常处理的深林,我们不仅要有勇气,还要有智慧。处理异常的第一课是分辨------是代理的问题还是别的什么鬼。别的什么鬼包括但不限于网络超时、目标服务器的反爬措施,或者是我们自己请求配置的疏漏。
我们来个深一步的剖析。假设你和服务端的对话因为网络波动变成单词接龙游戏,或者是代理IP被对方看破了,直接被封掉了。这种时候我们得做的,不仅仅是再来一次请求------我们得先检查检查这个IP到底是不是还能用。
每个代理IP我们给它几次机会,如果连续翻车,那我们就得启动我们的"淘汰机制",将其标记,收场的时候统一处理。
python 复制代码
# 这是轮到淘汰机制出场的时候了
async def cleanup_after_run(self):
    # 假如有一堆失效的IP需要处理
    if self.invalid_proxies:
        await remove_these_nasty_proxies(self.invalid_proxies)

案例代码:

这段代码呢,是我之前做的一个案例,有很多接口(这里就不放进去了,但是,基本思路大家多看看就应该能明白)

python 复制代码
import logging
import asyncio
import aiohttp
import aioredis

class SecondGet():
    '''
    传入一个id, 分别对X个url进行异步抓取html(不执行解析,只返回html)。
    '''
    MAX_RETRIES = 3  # 最大重试次数
    PROXY_IPS = None  # 初始化为None,并在需要时加载代理IP
    def __init__(self, id):
        # 初始化日志
        self.logger = logging.getLogger(__name__)
        logging.basicConfig(level=logging.INFO)

        # 存储id和各种请求需要的头信息
        self.id = id
        self.headers = {
            'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36',
        }

        # 需要爬取的urls
        self.urls = {
            'AA': f'http://www.XXXXX.com/zq/{id}.html',
           ......
        }
        # 存储失效的代理
        self.invalid_proxies = []

        # 假设这个方法会异步获取代理IPs
    async def get_proxy_ips(self):
        # 实际的实现应该是调用你封装好的异步函数
        if self.PROXY_IPS is None:
            self.PROXY_IPS = await some_async_task_to_get_proxies()
        return self.PROXY_IPS

    # 假设此函数会异步将失效的代理IP记录下来,稍后删除它们
    async def report_invalid_proxy(self, proxy_ip):
        self.invalid_proxies.append(proxy_ip)

        # 删除所有记录的失效代理的函数,假设已经实现
    async def remove_invalid_proxies(self):
        if self.invalid_proxies:
            await some_async_task_to_remove_proxies(self.invalid_proxies)
            self.invalid_proxies = []

    async def populate_proxy_ips(self):
        try:
            redis = await aioredis.create_redis_pool('redis://localhost')
            self.PROXY_IPS += await redis.smembers('proxy_ips')
            redis.close()
            await redis.wait_closed()
        except aioredis.RedisError as e:
            self.logger.exception("从redis获取ip异常:", exc_info=e)

    # 异步请求URL的函数
    async def fetch_with_proxy(self, session, url, proxy):
        try:
            async with session.get(url, proxy=proxy, timeout=3, headers=self.headers) as response:
                text = await response.text()
                if '您的访问频率过快,请稍等' in text:
                    return None
                return text
        except Exception:
            self.logger.exception(f"爬取相关url出错,使用的代理是{proxy}: {url}")
            return None

    async def fetch_url(self, session, url):
        # 此函数需要调整以处理无效代理逻辑
        # 如果首次调用为空,则尝试获取新的代理IP
        if not self.PROXY_IPS:
            self.PROXY_IPS = await get_new_proxies()

        for retry in range(self.MAX_RETRIES):
            if not self.PROXY_IPS:  # 如果没有可用代理,尝试重新获取
                self.PROXY_IPS = await get_new_proxies()

            proxy_ip = self.PROXY_IPS.pop(0)  # 获取第一个代理IP
            proxy = f"http://{proxy_ip}"
            try:
                async with session.get(url, proxy=proxy, headers=self.headers) as response:
                    text = await response.text()
                    if '您的访问频率过快,请稍等' in text:
                        await self.report_invalid_proxy(proxy_ip)  # 报告和重试
                        continue
                    return text  # 爬取成功,返回文本
            except Exception:  # 捕获请求中发生的异常
                await self.report_invalid_proxy(proxy_ip)  # 报告和重试

        # 所有重试都失败了,记录最后的代理IP并返回失败
        await self.report_invalid_proxy(proxy_ip)
        self.logger.error(f"所有重试失败: {url}")
        return None  # 返回失败

    async def run(self):
        # 存储结果的字典
        results = {}
        # 获取或刷新代理IP列表
        self.PROXY_IPS = await get_new_proxies()  # 假设函数返回代理IP列表

        async with aiohttp.ClientSession() as session:
            tasks = [asyncio.create_task(self.fetch_url(session, url)) for url in self.urls.values()]
            responses = await asyncio.gather(*tasks, return_exceptions=True)

            for name, response in zip(self.urls.keys(), responses):
                if isinstance(response, Exception):
                    with open('爬取异常.txt', 'a') as error_file:
                        error_file.write(f"{name} URL: {self.urls[name]}\n异常详情: {response}\n")
                    results[name] = None
                else:
                    results[name] = response

        # 假设有一个函数来处理清理逻辑
        await self.cleanup_after_run()

        return results

    async def cleanup_after_run(self):
        # 执行一些清理工作,比如从Redis中删除无效的代理IP
        # 假设有一个函数来异步完成此任务
        await some_async_task_to_remove_invalid_proxies(self.invalid_proxies)

结语

总结一下,代理池和异常处理就像是爬虫项目里的动力引擎和安全气囊。保持你的引擎全速运转需要不断地更新你的代理IP;展开你的安全气囊则需要细致入微地处理那些让请求翻车的问题。

8个字:

保持灵活,见招拆招

相关推荐
Jelena技术达人9 小时前
Java爬虫获取1688关键字 item_search接口返回值详细解析
java·开发语言·爬虫
m0_748256349 小时前
Web 代理、爬行器和爬虫
前端·爬虫
Kai HVZ14 小时前
python爬虫----爬取视频实战
爬虫·python·音视频
B站计算机毕业设计超人15 小时前
计算机毕业设计PySpark+Hadoop中国城市交通分析与预测 Python交通预测 Python交通可视化 客流量预测 交通大数据 机器学习 深度学习
大数据·人工智能·爬虫·python·机器学习·课程设计·数据可视化
小白学大数据17 小时前
高级技术文章:使用 Kotlin 和 Unirest 构建高效的 Facebook 图像爬虫
爬虫·数据分析·kotlin
数据小小爬虫1 天前
利用Java爬虫获取苏宁易购商品详情
java·开发语言·爬虫
小木_.1 天前
【Python 图片下载器】一款专门为爬虫制作的图片下载器,多线程下载,速度快,支持续传/图片缩放/图片压缩/图片转换
爬虫·python·学习·分享·批量下载·图片下载器
lovelin+v175030409661 天前
安全性升级:API接口在零信任架构下的安全防护策略
大数据·数据库·人工智能·爬虫·数据分析
qq_375872691 天前
14爬虫:scrapy实现翻页爬取
爬虫·scrapy