如果你做过中大型爬虫项目,就一定知道浏览器自动化这一环节有多"吃资源"。一台机器跑几个浏览器实例还好,一旦规模上百、上千,就成了内存地狱。Playwright 虽然在单机场景下表现优异,但要把它放到分布式架构中稳定运行,就得动点"脑筋"。
这篇文章会带你一步步搭建一个"分布式浏览器栈"------用 Playwright 跑在容器中,配合代理、调度和会话管理,实现对多新闻网站(如 ZAKER 与 第一财经)的高并发抓取。
一、背景介绍
随着各大网站反爬手段越来越复杂,传统的 requests + BeautifulSoup 模式已经不够用了。越来越多的数据都藏在前端异步加载的 JavaScript 里,只能靠"浏览器级"工具去渲染和执行。
Playwright 就是为这种任务而生的。但 Playwright 自带的问题也不容忽视:
- 启动慢:每个浏览器实例都要初始化环境;
 - 资源重:内存、CPU、文件句柄消耗惊人;
 - 管理复杂:多个实例的调度、登录会话的维护都得自己搞。
 
于是,"容器化分布式浏览器栈"成了救命稻草。通过 Docker 把浏览器实例包装成轻量级容器,我们就能像调度服务一样去调度它们,还能方便地进行资源回收。
二、环境准备
在开始之前,你需要准备以下环境:
- 基础环境
- Python 3.10+
 - Docker & Docker Compose
 - Playwright (支持 Chromium)
 
 - 安装依赖
 
            
            
              bash
              
              
            
          
          pip install playwright aiohttp asyncio
playwright install chromium
        - 准备代理配置(爬虫代理示例)
爬虫代理的配置一般包含以下内容(示例): 
            
            
              plain
              
              
            
          
          代理域名:proxy.16yun.cn
端口:3100
用户名:your_username
密码:your_password
        我们会在代码中直接使用它。
三、核心步骤
Step 1:容器化浏览器服务
创建一个简单的 Dockerfile,让每个容器都能独立运行一个 Playwright 实例。
            
            
              dockerfile
              
              
            
          
          FROM mcr.microsoft.com/playwright/python:v1.47.2-jammy
WORKDIR /app
COPY . /app
RUN pip install -r requirements.txt
CMD ["python", "browser_worker.py"]
        每个容器就是一个"浏览器节点",主控端通过调度系统(比如 Celery 或自定义 API)来派发任务。
Step 2:调度与会话管理
为了防止频繁登录或重复加载 cookie,我们为每个浏览器实例维护独立的"会话池"。
思路如下:
- 调度器分配任务时,会分配一个浏览器容器 + 会话 ID;
 - 该会话 ID 对应一个用户上下文(含 cookie、localStorage);
 - 定期清理无用会话,释放资源。
 
Step 3:集成代理并采集新闻网站
在这里,我们用 Playwright + 代理连接访问两个新闻网站(ZAKER 和 第一财经),并抓取最新的新闻标题与链接。
            
            
              python
              
              
            
          
          import asyncio
from playwright.async_api import async_playwright
# 代理配置(参考亿牛云 www.16yun.cn)
PROXY_HOST = "proxy.16yun.cn"
PROXY_PORT = "3100"
PROXY_USER = "your_username"
PROXY_PASS = "your_password"
# 要采集的目标网站
TARGETS = [
    "http://www.myzaker.com",
    "https://www.yicai.com"
]
async def fetch_news(url):
    """抓取新闻标题和链接"""
    proxy_str = f"http://{PROXY_USER}:{PROXY_PASS}@{PROXY_HOST}:{PROXY_PORT}"
    async with async_playwright() as p:
        browser = await p.chromium.launch(
            headless=True,
            proxy={"server": proxy_str}
        )
        context = await browser.new_context()
        page = await context.new_page()
        await page.goto(url, timeout=60000)
        # 这里根据网站结构提取新闻标题与链接
        if "myzaker" in url:
            articles = await page.query_selector_all("a[href*='/article']")
        else:
            articles = await page.query_selector_all("a[href*='news']")
        for a in articles[:10]:
            href = await a.get_attribute("href")
            title = await a.inner_text()
            print(f"[{url}] {title} -> {href}")
        await browser.close()
async def main():
    await asyncio.gather(*(fetch_news(u) for u in TARGETS))
if __name__ == "__main__":
    asyncio.run(main())
        这段代码会使用 Playwright 打开两个新闻网站,分别提取部分新闻标题和链接,并通过爬虫代理隐藏真实 IP。
四、常见错误与坑
- 代理认证失败
- 检查用户名、密码、端口是否正确;
 - 有时 Playwright 对代理格式比较挑剔,推荐显式使用 
http://user:pass@host:port。 
 - 页面超时
- 部分网站加载较慢,可适当增加 
timeout参数; - 或使用 
await page.wait_for_selector()确认元素加载完成。 
 - 部分网站加载较慢,可适当增加 
 - 容器资源占用过高
- 使用 
--shm-size=1gb启动容器; - 定期销毁闲置容器,保持活跃实例池在 20~30 个左右。
 
 - 使用 
 
五、总结与提升
通过这次实践,我们完成了一个可扩展的"分布式浏览器采集框架":
- Playwright 提供浏览器渲染能力;
 - Docker 保证实例隔离与资源回收;
 - 爬虫代理解决 IP 限制问题。
 
容器化 Playwright,就像给浏览器加上"齿轮和轮轴"------从单机小工具变成一台稳定、高效的分布式采集机器。