FastAPI与Selenium:打造高效的Web数据抓取服务

引言

在互联网数据采集中,图片数据往往占据了重要位置。Pixabay作为一个免版权图片网站,拥有海量优质图片。本文将展示如何利用FastAPI搭建一个RESTful接口,通过Selenium模拟浏览器行为访问Pixabay,并使用代理IP、User-Agent和Cookie配置提高爬虫稳定性,进而采集页面中图片及其相关描述信息。

环境准备

本文示例依赖以下第三方库:

  • FastAPI:用于搭建API接口;
  • Uvicorn:作为ASGI服务器运行FastAPI应用;
  • Selenium:用于模拟浏览器操作,实现数据抓取;
  • ChromeDriver:与Chrome浏览器版本匹配的驱动程序。

安装命令示例:

bash 复制代码
pip install fastapi uvicorn selenium

代理IP、User-Agent与Cookie配置说明

  1. 代理IP技术
    使用代理IP可以有效防止目标网站对单一IP的封禁。本文以亿牛云爬虫代理为例,配置了代理的域名、端口、用户名和密码,通过ChromeOptions传递给Selenium。
  2. User-Agent设置
    为了模拟真实用户访问,在浏览器启动时设置User-Agent,降低被反爬的风险。
  3. Cookie设置
    Cookie可用于维持会话状态或绕过部分反爬策略。在访问Pixabay后,添加Cookie可以确保后续操作更贴近真实浏览器行为。

代码实现

以下代码示例展示了如何整合FastAPI和Selenium,实现对Pixabay页面的访问及图片数据采集。代码中包含详细的中文注释,便于理解各步骤的作用。

python 复制代码
# -*- coding: utf-8 -*-
"""
FastAPI与Selenium结合示例:
通过FastAPI提供API接口,使用Selenium进行网页抓取。
代码中配置了代理IP(参考亿牛云爬虫代理www.16yun.cn)、User-Agent和Cookie。
此示例访问 https://pixabay.com ,采集页面中的图片及其相关信息。
"""

from fastapi import FastAPI
from selenium import webdriver
from selenium.webdriver.chrome.options import Options
from selenium.webdriver.common.by import By
import time

app = FastAPI()

def create_driver():
    # 初始化Chrome选项
    chrome_options = Options()
    
    # 设置User-Agent,模拟真实浏览器请求
    user_agent = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 " \
                 "(KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36"
    chrome_options.add_argument(f"user-agent={user_agent}")
    
    # 配置代理IP参数(参考亿牛云爬虫代理)
    proxy_host = "proxy.16yun.cn"      # 代理域名
    proxy_port = "8000"                    # 代理端口
    proxy_user = "your_username"           # 代理用户名
    proxy_pass = "your_password"           # 代理密码
    # 拼接代理字符串,格式为:username:password@host:port
    proxy = f"{proxy_user}:{proxy_pass}@{proxy_host}:{proxy_port}"
    chrome_options.add_argument(f"--proxy-server=http://{proxy}")
    
    # 可选:如果需要无头模式(不打开浏览器窗口),取消下行注释
    # chrome_options.add_argument("--headless")
    
    # 初始化Chrome WebDriver
    driver = webdriver.Chrome(options=chrome_options)
    
    # 预先访问目标网站,设置Cookie示例(Cookie需与目标域名匹配)
    driver.get("https://pixabay.com")
    driver.add_cookie({
        "name": "example_cookie",    # Cookie名称
        "value": "cookie_value",     # Cookie值
        "domain": "pixabay.com"      # Cookie对应的域名
    })
    
    return driver

@app.get("/crawl")
def crawl():
    """
    接口说明:
    该接口使用Selenium访问 https://pixabay.com 页面,
    采集页面中所有图片的URL及其相关描述信息(通过alt属性提供),
    并以JSON格式返回采集结果。
    """
    try:
        # 创建Selenium WebDriver实例
        driver = create_driver()
        # 访问目标URL:Pixabay首页
        driver.get("https://pixabay.com")
        # 等待页面加载(根据实际情况可调整等待时间)
        time.sleep(5)
        
        # 查找页面中所有的img标签元素
        img_elements = driver.find_elements(By.TAG_NAME, "img")
        
        # 存储图片信息的列表
        images_info = []
        
        # 遍历所有图片元素,提取图片URL和描述信息(alt属性)
        for img in img_elements:
            src = img.get_attribute("src")
            alt = img.get_attribute("alt")
            # 如果图片URL不存在则跳过
            if not src:
                continue
            images_info.append({
                "src": src,
                "alt": alt
            })
    except Exception as e:
        # 捕获异常并返回错误信息
        return {"error": str(e)}
    finally:
        # 关闭浏览器,释放资源
        driver.quit()
    
    return {"total_images": len(images_info), "images": images_info}

# 启动FastAPI服务(在命令行中运行: uvicorn main:app --host 0.0.0.0 --port 8000)
if __name__ == "__main__":
    import uvicorn
    uvicorn.run(app, host="0.0.0.0", port=8000)

代码说明

  1. 代理配置
    create_driver函数中,通过chrome_options.add_argument("--proxy-server=http://{proxy}")设置了代理IP,其中代理信息参考亿牛云爬虫代理的参数。
  2. User-Agent设置
    利用chrome_options.add_argument(f"user-agent={user_agent}")模拟真实浏览器请求,帮助绕过部分反爬机制。
  3. Cookie设置
    通过在访问Pixabay后添加Cookie(示例中为example_cookie),使得后续请求更接近真实浏览器行为。
  4. 图片信息采集
    /crawl接口中,通过driver.find_elements(By.TAG_NAME, "img")获取页面中所有图片元素,并提取每个图片的src(图片链接)和alt(图片描述)属性,构造成列表返回。
  5. FastAPI接口
    FastAPI提供的/crawl接口无需传入参数,直接访问Pixabay首页采集图片数据,适用于展示或后续数据处理流程。

总结

本文通过实际案例演示了如何使用FastAPI和Selenium构建一个Web数据抓取服务。通过配置代理IP、User-Agent和Cookie,我们能够更稳健地访问目标网站(此处为Pixabay),并采集其中的图片及相关信息。在实际应用中,可根据需求扩展数据解析逻辑、增加错误重试机制或并行处理策略,进一步优化抓取效率与鲁棒性。

希望这篇文章及示例代码能为你构建高效爬虫服务提供有价值的参考。

相关推荐
秀儿还能再秀1 小时前
淘宝母婴购物数据可视化分析(基于脱敏公开数据集)
python·数据分析·学习笔记·数据可视化
计算机老学长1 小时前
基于Python的商品销量的数据分析及推荐系统
开发语言·python·数据分析
千益2 小时前
玩转python:系统设计模式在Python项目中的应用
python·设计模式
&白帝&2 小时前
Java @PathVariable获取路径参数
java·开发语言·python
Shepherdppz3 小时前
python量化交易——金融数据管理最佳实践——使用qteasy大批量自动拉取金融数据
python·金融·量化交易
互联网杂货铺3 小时前
python+pytest 接口自动化测试:参数关联
自动化测试·软件测试·python·测试工具·职场和发展·测试用例·pytest
筱涵哥3 小时前
Python默认参数详细教程:默认参数位置错误,动态默认值,__defaults__属性,动态默认值处理,从入门到实战的保姆级教程
开发语言·python
yzztin3 小时前
Python 导包和依赖路径问题
python
pk_xz1234563 小时前
介绍如何基于现有的可运行STGCN(Spatial-Temporal Graph Convolutional Network)模型代码进行交通流预测的改动
python
用户8134411823613 小时前
Python基础
python