FastAPI与Selenium:打造高效的Web数据抓取服务

引言

在互联网数据采集中,图片数据往往占据了重要位置。Pixabay作为一个免版权图片网站,拥有海量优质图片。本文将展示如何利用FastAPI搭建一个RESTful接口,通过Selenium模拟浏览器行为访问Pixabay,并使用代理IP、User-Agent和Cookie配置提高爬虫稳定性,进而采集页面中图片及其相关描述信息。

环境准备

本文示例依赖以下第三方库:

  • FastAPI:用于搭建API接口;
  • Uvicorn:作为ASGI服务器运行FastAPI应用;
  • Selenium:用于模拟浏览器操作,实现数据抓取;
  • ChromeDriver:与Chrome浏览器版本匹配的驱动程序。

安装命令示例:

bash 复制代码
pip install fastapi uvicorn selenium

代理IP、User-Agent与Cookie配置说明

  1. 代理IP技术
    使用代理IP可以有效防止目标网站对单一IP的封禁。本文以亿牛云爬虫代理为例,配置了代理的域名、端口、用户名和密码,通过ChromeOptions传递给Selenium。
  2. User-Agent设置
    为了模拟真实用户访问,在浏览器启动时设置User-Agent,降低被反爬的风险。
  3. Cookie设置
    Cookie可用于维持会话状态或绕过部分反爬策略。在访问Pixabay后,添加Cookie可以确保后续操作更贴近真实浏览器行为。

代码实现

以下代码示例展示了如何整合FastAPI和Selenium,实现对Pixabay页面的访问及图片数据采集。代码中包含详细的中文注释,便于理解各步骤的作用。

python 复制代码
# -*- coding: utf-8 -*-
"""
FastAPI与Selenium结合示例:
通过FastAPI提供API接口,使用Selenium进行网页抓取。
代码中配置了代理IP(参考亿牛云爬虫代理www.16yun.cn)、User-Agent和Cookie。
此示例访问 https://pixabay.com ,采集页面中的图片及其相关信息。
"""

from fastapi import FastAPI
from selenium import webdriver
from selenium.webdriver.chrome.options import Options
from selenium.webdriver.common.by import By
import time

app = FastAPI()

def create_driver():
    # 初始化Chrome选项
    chrome_options = Options()
    
    # 设置User-Agent,模拟真实浏览器请求
    user_agent = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 " \
                 "(KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36"
    chrome_options.add_argument(f"user-agent={user_agent}")
    
    # 配置代理IP参数(参考亿牛云爬虫代理)
    proxy_host = "proxy.16yun.cn"      # 代理域名
    proxy_port = "8000"                    # 代理端口
    proxy_user = "your_username"           # 代理用户名
    proxy_pass = "your_password"           # 代理密码
    # 拼接代理字符串,格式为:username:password@host:port
    proxy = f"{proxy_user}:{proxy_pass}@{proxy_host}:{proxy_port}"
    chrome_options.add_argument(f"--proxy-server=http://{proxy}")
    
    # 可选:如果需要无头模式(不打开浏览器窗口),取消下行注释
    # chrome_options.add_argument("--headless")
    
    # 初始化Chrome WebDriver
    driver = webdriver.Chrome(options=chrome_options)
    
    # 预先访问目标网站,设置Cookie示例(Cookie需与目标域名匹配)
    driver.get("https://pixabay.com")
    driver.add_cookie({
        "name": "example_cookie",    # Cookie名称
        "value": "cookie_value",     # Cookie值
        "domain": "pixabay.com"      # Cookie对应的域名
    })
    
    return driver

@app.get("/crawl")
def crawl():
    """
    接口说明:
    该接口使用Selenium访问 https://pixabay.com 页面,
    采集页面中所有图片的URL及其相关描述信息(通过alt属性提供),
    并以JSON格式返回采集结果。
    """
    try:
        # 创建Selenium WebDriver实例
        driver = create_driver()
        # 访问目标URL:Pixabay首页
        driver.get("https://pixabay.com")
        # 等待页面加载(根据实际情况可调整等待时间)
        time.sleep(5)
        
        # 查找页面中所有的img标签元素
        img_elements = driver.find_elements(By.TAG_NAME, "img")
        
        # 存储图片信息的列表
        images_info = []
        
        # 遍历所有图片元素,提取图片URL和描述信息(alt属性)
        for img in img_elements:
            src = img.get_attribute("src")
            alt = img.get_attribute("alt")
            # 如果图片URL不存在则跳过
            if not src:
                continue
            images_info.append({
                "src": src,
                "alt": alt
            })
    except Exception as e:
        # 捕获异常并返回错误信息
        return {"error": str(e)}
    finally:
        # 关闭浏览器,释放资源
        driver.quit()
    
    return {"total_images": len(images_info), "images": images_info}

# 启动FastAPI服务(在命令行中运行: uvicorn main:app --host 0.0.0.0 --port 8000)
if __name__ == "__main__":
    import uvicorn
    uvicorn.run(app, host="0.0.0.0", port=8000)

代码说明

  1. 代理配置
    create_driver函数中,通过chrome_options.add_argument("--proxy-server=http://{proxy}")设置了代理IP,其中代理信息参考亿牛云爬虫代理的参数。
  2. User-Agent设置
    利用chrome_options.add_argument(f"user-agent={user_agent}")模拟真实浏览器请求,帮助绕过部分反爬机制。
  3. Cookie设置
    通过在访问Pixabay后添加Cookie(示例中为example_cookie),使得后续请求更接近真实浏览器行为。
  4. 图片信息采集
    /crawl接口中,通过driver.find_elements(By.TAG_NAME, "img")获取页面中所有图片元素,并提取每个图片的src(图片链接)和alt(图片描述)属性,构造成列表返回。
  5. FastAPI接口
    FastAPI提供的/crawl接口无需传入参数,直接访问Pixabay首页采集图片数据,适用于展示或后续数据处理流程。

总结

本文通过实际案例演示了如何使用FastAPI和Selenium构建一个Web数据抓取服务。通过配置代理IP、User-Agent和Cookie,我们能够更稳健地访问目标网站(此处为Pixabay),并采集其中的图片及相关信息。在实际应用中,可根据需求扩展数据解析逻辑、增加错误重试机制或并行处理策略,进一步优化抓取效率与鲁棒性。

希望这篇文章及示例代码能为你构建高效爬虫服务提供有价值的参考。

相关推荐
go54631584652 分钟前
如何使用深度学习中的 Transformer 算法进行视频目标检测
开发语言·python
查理零世34 分钟前
【算法】动态规划专题④ ——LCS(最长公共子序列)+ LPS(最长回文子序列) python
python·算法·动态规划
游王子1 小时前
Python NumPy(12):NumPy 字节交换、NumPy 副本和视图、NumPy 矩阵库(Matrix)
开发语言·python·numpy
我是苏苏1 小时前
python开发:爬虫示例——GET和POST请求处理
开发语言·爬虫·python
m0_748248652 小时前
GraphRAG如何使用ollama提供的llm model 和Embedding model服务构建本地知识库
python·flask·embedding
洪信智能2 小时前
DeepSeek技术发展研究:驱动因素、社会影响与未来展望
人工智能·python
Damon小智3 小时前
使用Pygame制作“青蛙过河”游戏
python·游戏·pygame
会讲英语的码农3 小时前
Jupyter Lab的使用
ide·python·jupyter
勇敢一点♂4 小时前
canal-python的安装与入门
数据库·python