【无标题】使用 Playwright 实现跨 Chromium、Firefox、WebKit 浏览器自动化操作

环境安装

首先要安装 Playwright 及其依赖库,命令如下:

复制代码
 

Bash

pip install playwright pillow pytesseract

playwright install

这里安装了 Playwright、Pillow(用于图像处理)、pytesseract(用于 OCR 识别),并安装了所需的浏览器驱动2

代码示例

以下是一个简单的使用 Playwright 实现跨浏览器自动化操作的 Python 代码示例:

复制代码
 

Python

import asyncio

from playwright.async_api import async_playwright

async def main():

async with async_playwright() as p:

# 启动 Chromium 浏览器

browser_chromium = await p.chromium.launch(headless=False)

page_chromium = await browser_chromium.new_page()

await page_chromium.goto("https://www.example.com")

await page_chromium.screenshot(path="chromium_screenshot.png")

await browser_chromium.close()

# 启动 Firefox 浏览器

browser_firefox = await p.firefox.launch(headless=False)

page_firefox = await browser_firefox.new_page()

await page_firefox.goto("https://www.example.com")

await page_firefox.screenshot(path="firefox_screenshot.png")

await browser_firefox.close()

# 启动 WebKit 浏览器

browser_webkit = await p.webkit.launch(headless=False)

page_webkit = await browser_webkit.new_page()

await page_webkit.goto("https://www.example.com")

await page_webkit.screenshot(path="webkit_screenshot.png")

await browser_webkit.close()

asyncio.run(main())

在上述代码中,使用 async_playwright 异步启动不同的浏览器(Chromium、Firefox、WebKit),然后打开指定的网页并进行截图,最后关闭浏览器。

反爬与动态内容处理

现代网站存在诸多反爬机制和动态内容,Playwright 可以很好地应对这些问题。例如,对于 JS 动态渲染与加载的页面,Playwright 会自动加载页面并等待 JS 执行;对于 JS 挑战(如滑动验证),可以模拟真实用户滑动或点击操作;对于图片验证码识别,可以截图验证码区域,利用 OCR 自动识别;对于登录态维护,可以使用 Playwright 的 cookie 管理来保持会话2

并发优化

可以结合 asyncio 实现并发操作,提高爬取效率。以下是一个简单的并发示例:

复制代码
 

Python

import asyncio

from playwright.async_api import async_playwright

async def scrape_page(browser_type):

async with async_playwright() as p:

browser = await getattr(p, browser_type).launch(headless=False)

page = await browser.new_page()

await page.goto("https://www.example.com")

await page.screenshot(path=f"{browser_type}_screenshot.png")

await browser.close()

async def main():

tasks = [scrape_page("chromium"), scrape_page("firefox"), scrape_page("webkit")]

await asyncio.gather(*tasks)

asyncio.run(main())

在这个示例中,使用 asyncio.gather 并发地对不同浏览器进行操作,提高了爬取效率。

相关推荐
酣大智1 分钟前
接口模式参数
运维·网络·网络协议·tcp/ip
C雨后彩虹12 分钟前
计算疫情扩散时间
java·数据结构·算法·华为·面试
龙山云仓15 分钟前
No140:AI世间故事-对话康德——先验哲学与AI理性:范畴、道德律与自主性
大数据·人工智能·深度学习·机器学习·全文检索·lucene
一只自律的鸡23 分钟前
【Linux驱动】bug处理 ens33找不到IP
linux·运维·bug
Up九五小庞27 分钟前
开源埋点分析平台 ClkLog 本地部署 + Web JS 埋点测试实战--九五小庞
前端·javascript·开源
!chen38 分钟前
linux服务器静默安装Oracle26ai
linux·运维·服务器
莫大33042 分钟前
2核2G云服务器PHP8.5+MySQL9.0+Nginx(LNMP)安装WordPress网站详细教程
运维·服务器·nginx
刚刚入门的菜鸟43 分钟前
php-curl
运维·web安全·php
24zhgjx-lxq43 分钟前
华为ensp:MSTP
网络·安全·华为·hcip·ensp
REDcker1 小时前
Linux 文件描述符与 Socket 选项操作详解
linux·运维·网络