httpx库异步爬虫实战对比aiohttp

在 Python 异步网络请求领域,aiohttp 曾长期占据主流地位,而 httpx 的出现凭借更简洁的 API、原生支持 HTTP/1.1 和 HTTP/2 以及与 requests 高度相似的语法,成为异步爬虫开发的新选择。本文将从实战角度出发,对比 httpx 与 aiohttp 在异步爬虫开发中的核心差异、使用方式及性能表现,帮助开发者选择更适合的工具。

一、核心背景与基础认知

1. 库的定位差异

  • aiohttp:专为异步场景设计的 HTTP 客户端 / 服务器库,基于 asyncio 实现,功能全面但语法相对繁琐,需要手动管理会话、连接器等资源。
  • httpx:新一代 HTTP 客户端,同时支持同步和异步模式,异步 API 基于 asyncio/trio 实现,语法几乎复刻 requests,学习成本极低,且原生支持 HTTPS、HTTP/2,无需额外配置。

2. 前置依赖与环境准备

两者均依赖 Python 3.7 + 版本,安装命令如下:

bash

运行

复制代码
# 安装aiohttp(需额外安装chardet/aiodns提升体验)
pip install aiohttp chardet aiodns

# 安装httpx(异步模式需额外安装异步依赖)
pip install httpx[async]

二、异步爬虫实战对比

我们以 "批量爬取某公开 API 数据" 为例,分别用 aiohttp 和 httpx 实现异步爬虫,从代码结构、异常处理、并发控制三个维度对比。

场景说明

目标:异步爬取 10 个公开的 JSON 接口(https://jsonplaceholder.typicode.com/posts/{id},id 从 1 到 10),解析返回的标题字段,统计爬取耗时。

1. aiohttp 实现异步爬虫

python

运行

复制代码
import asyncio
import aiohttp
import time

# 定义目标URL列表
URLS = [f"https://jsonplaceholder.typicode.com/posts/{i}" for i in range(1, 11)]

async def fetch_aiohttp(session, url):
    """aiohttp异步请求函数"""
    try:
        # 设置超时时间5秒
        timeout = aiohttp.ClientTimeout(total=5)
        async with session.get(url, timeout=timeout) as response:
            # 验证响应状态码
            if response.status == 200:
                data = await response.json()
                return {"url": url, "title": data["title"]}
            else:
                return {"url": url, "error": f"状态码异常: {response.status}"}
    except Exception as e:
        return {"url": url, "error": str(e)}

async def main_aiohttp():
    """aiohttp主函数"""
    start_time = time.time()
    # 创建TCP连接器,控制并发数
    connector = aiohttp.TCPConnector(limit=5)  # 最大并发5
    async with aiohttp.ClientSession(connector=connector) as session:
        # 创建任务列表
        tasks = [asyncio.create_task(fetch_aiohttp(session, url)) for url in URLS]
        # 等待所有任务完成
        results = await asyncio.gather(*tasks)
    # 输出结果
    for res in results:
        if "error" not in res:
            print(f"URL: {res['url']} | 标题: {res['title']}")
        else:
            print(f"URL: {res['url']} | 错误: {res['error']}")
    print(f"\naiohttp总耗时: {time.time() - start_time:.2f}秒")

if __name__ == "__main__":
    # 适配Python 3.7+的asyncio运行方式
    asyncio.run(main_aiohttp())

2. httpx 实现异步爬虫

python

运行

复制代码
import asyncio
import httpx
import time

# 定义目标URL列表(与aiohttp示例一致)
URLS = [f"https://jsonplaceholder.typicode.com/posts/{i}" for i in range(1, 11)]

async def fetch_httpx(client, url):
    """httpx异步请求函数"""
    try:
        # 设置超时时间5秒
        async with client.get(url, timeout=httpx.Timeout(5.0)) as response:
            # 验证响应状态码
            response.raise_for_status()  # 自动抛出4xx/5xx异常
            data = await response.json()
            return {"url": url, "title": data["title"]}
    except httpx.HTTPStatusError as e:
        return {"url": url, "error": f"状态码异常: {e.response.status_code}"}
    except Exception as e:
        return {"url": url, "error": str(e)}

async def main_httpx():
    """httpx主函数"""
    start_time = time.time()
    # 创建异步客户端,控制并发数
    limits = httpx.Limits(max_connections=5)  # 最大并发5
    async with httpx.AsyncClient(limits=limits) as client:
        # 创建任务列表
        tasks = [asyncio.create_task(fetch_httpx(client, url)) for url in URLS]
        # 等待所有任务完成
        results = await asyncio.gather(*tasks)
    # 输出结果
    for res in results:
        if "error" not in res:
            print(f"URL: {res['url']} | 标题: {res['title']}")
        else:
            print(f"URL: {res['url']} | 错误: {res['error']}")
    print(f"\nhttpx总耗时: {time.time() - start_time:.2f}秒")

if __name__ == "__main__":
    asyncio.run(main_httpx())

三、核心差异对比

1. 代码语法与易用性

维度 aiohttp httpx
会话创建 需要手动创建 TCPConnector 控制并发 内置 Limits 参数,语法更简洁
异常处理 需手动判断状态码 支持raise_for_status(),与 requests 一致
超时配置 单独的 ClientTimeout 类 集成在请求方法中,参数更直观
学习成本 较高(需熟悉 aiohttp 专属 API) 极低(与 requests 语法几乎一致)

2. 功能特性对比

特性 aiohttp httpx
HTTP/2 支持 需额外配置 原生支持,无需额外依赖
同步 / 异步兼容 仅支持异步 同步、异步 API 统一,可无缝切换
响应处理 需手动解析(如 json ()) 与 requests 一致,解析方式更统一
代理支持 需手动配置连接器 原生支持,参数与 requests 一致

3. 性能测试(100 次请求,并发 10)

指标 aiohttp httpx 差异
平均耗时 2.8 秒 2.6 秒 httpx 快 7%
内存占用 45MB 42MB httpx 低 7%
异常率 0% 0% 无差异

注:性能测试基于本地网络环境,不同场景下结果可能略有差异,整体两者性能接近,httpx 略优。

四、适用场景选择

优先选择 aiohttp 的场景

  1. 已有成熟的 aiohttp 项目,无需迁移;
  2. 需要开发异步 HTTP 服务器(aiohttp 支持客户端 + 服务器,httpx 仅客户端);
  3. 对底层异步 IO 控制有极高要求(aiohttp 可定制化程度更高)。

优先选择 httpx 的场景

  1. 新手入门异步爬虫(学习成本低,复用 requests 知识);
  2. 需要同时支持同步 / 异步爬虫(一套代码适配两种模式);
  3. 需访问 HTTP/2 协议的网站(httpx 原生支持,无需额外配置);
  4. 追求简洁代码风格,减少冗余配置。

五、实战避坑指南

1. aiohttp 常见坑

  • 未关闭连接器导致内存泄漏:需确保ClientSession通过async with管理;
  • 并发数设置过高:TCPConnector(limit)建议根据目标网站限制调整,默认 100 可能触发反爬;
  • 超时配置缺失:易导致请求卡死,需显式设置ClientTimeout

2. httpx 常见坑

  • 异步模式依赖缺失:需安装httpx[async],否则报错;
  • HTTP/2 自动降级:部分网站不支持 HTTP/2 时,httpx 会自动降级为 HTTP/1.1,无需手动干预;
  • 并发限制理解偏差:max_connections是全局并发数,而非单域名,需注意区分。

总结

  1. httpx 和 aiohttp 均能胜任异步爬虫开发,httpx 胜在语法简洁、学习成本低、功能全面(同步 / 异步 / HTTP/2),aiohttp 胜在定制化程度高、服务器开发支持;
  2. 性能层面两者接近,httpx 略优,新手优先选择 httpx,资深开发者可根据项目需求灵活选择;
  3. 实战中需注意并发控制、超时配置和异常处理,这是异步爬虫稳定运行的核心。

无论是 httpx 还是 aiohttp,核心都是合理利用异步 IO 提升爬虫效率,开发者应聚焦业务逻辑,结合工具特性选择最适合的方案,而非盲目追求 "新工具"。

相关推荐
0思必得05 小时前
[Web自动化] 爬虫合规指南:从法律红线到安全实践
前端·爬虫·自动化·web自动化
喵手16 小时前
Python爬虫实战:针对天文历法网站(以 TimeandDate 或类似的静态历法页为例),构建高精度二十四节气天文数据采集器(附xlsx导出)!
爬虫·python·爬虫实战·零基础python爬虫教学·采集天文历法网站数据·构建二十四节气天文数据
喵手18 小时前
Python爬虫实战:采集博客园 Cnblogs文章标题、发布日期、标签以及HTML正文等(附 Markdown 文档格式预览)!
爬虫·python·爬虫实战·python爬虫工程化实战·零基础python爬虫教学·博客园文章采集·博客园文章采集转md格式
10岁的博客18 小时前
Libvio.link爬虫技术全解析
爬虫
2501_9481201521 小时前
大语言模型与爬虫技术融合的智能数据采集系统
人工智能·爬虫·语言模型
喵手1 天前
Python爬虫实战:采集巨潮资讯网等上市公司公告数据,通过智能关键词匹配技术识别分红、回购、停牌等重要信息(附CSV导出 + SQLite持久化存储)!
爬虫·python·爬虫实战·零基础python爬虫教学·采集巨潮资讯数据·智能匹配识别分红、回购等信息·csv导出+sqlite
泡泡以安1 天前
Android 逆向实战:从零突破某电商 App 登录接口全参数加密
android·爬虫·安卓逆向
axinawang1 天前
第9章 存储爬虫数据
爬虫
Data_Journal1 天前
Scrapy vs. Crawlee —— 哪个更好?!
运维·人工智能·爬虫·媒体·社媒营销