python网络爬虫


一、Python爬虫核心库

  1. HTTP请求库

    • requests:简单易用的HTTP请求库,处理GET/POST请求。
    • aiohttp:异步HTTP客户端,适合高并发场景。
  2. HTML/XML解析库

    • BeautifulSoup :基于DOM树的解析库,支持多种解析器(如lxml)。
    • lxml:高性能解析库,支持XPath语法。
  3. 动态页面处理

    • Selenium:模拟浏览器操作,处理JavaScript渲染的页面。
    • Playwright(推荐):新一代自动化工具,支持多浏览器。
  4. 数据存储

    • pandas:数据清洗与导出(CSV/Excel)。
    • SQLAlchemy:数据库ORM工具(如MySQL、PostgreSQL)。
  5. 框架

    • Scrapy:高性能爬虫框架,支持分布式、中间件、管道等特性。

二、爬虫开发步骤

1. 发起HTTP请求
python 复制代码
import requests

url = "https://example.com"
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36"
}

response = requests.get(url, headers=headers)
if response.status_code == 200:
    html = response.text  # 或 response.content
2. 解析HTML内容

使用BeautifulSoup:

python 复制代码
from bs4 import BeautifulSoup

soup = BeautifulSoup(html, "lxml")
titles = soup.find_all("h1", class_="title")
for title in titles:
    print(title.text.strip())

使用XPath(配合lxml):

python 复制代码
from lxml import etree

tree = etree.HTML(html)
items = tree.xpath('//div[@class="item"]/a/@href')
3. 处理动态页面(Selenium示例)
python 复制代码
from selenium import webdriver
from selenium.webdriver.common.by import By

driver = webdriver.Chrome()
driver.get("https://example.com")
dynamic_content = driver.find_element(By.CSS_SELECTOR, ".dynamic-element").text
driver.quit()
4. 存储数据

保存到CSV:

python 复制代码
import csv

with open("data.csv", "w", newline="", encoding="utf-8") as f:
    writer = csv.writer(f)
    writer.writerow(["标题", "链接"])
    writer.writerow(["Example", "https://example.com"])

保存到数据库(SQLAlchemy):

python 复制代码
from sqlalchemy import create_engine, Column, String
from sqlalchemy.orm import declarative_base

Base = declarative_base()
class Article(Base):
    __tablename__ = "articles"
    title = Column(String(200), primary_key=True)
    url = Column(String(200))

engine = create_engine("sqlite:///data.db")
Base.metadata.create_all(engine)

# 插入数据
from sqlalchemy.orm import sessionmaker
Session = sessionmaker(bind=engine)
session = Session()
session.add(Article(title="Example", url="https://example.com"))
session.commit()

三、实战示例:爬取豆瓣电影Top250

python 复制代码
import requests
from bs4 import BeautifulSoup
import csv

url = "https://movie.douban.com/top250"
headers = {"User-Agent": "Mozilla/5.0"}

def get_movies():
    response = requests.get(url, headers=headers)
    soup = BeautifulSoup(response.text, "lxml")
    movies = []
    for item in soup.find_all("div", class_="item"):
        title = item.find("span", class_="title").text
        rating = item.find("span", class_="rating_num").text
        movies.append((title, rating))
    return movies

def save_to_csv(movies):
    with open("douban_top250.csv", "w", newline="", encoding="utf-8") as f:
        writer = csv.writer(f)
        writer.writerow(["电影名称", "评分"])
        writer.writerows(movies)

if __name__ == "__main__":
    movies = get_movies()
    save_to_csv(movies)

四、反爬虫策略与应对

  1. 常见反爬手段

    • User-Agent检测 :伪装浏览器头(如使用fake_useragent库)。
    • IP封禁 :使用代理IP池(如requests + proxies参数)。
    • 验证码:接入打码平台(如超级鹰)或OCR识别。
    • 频率限制 :设置随机请求间隔(如time.sleep(random.uniform(1,3)))。
  2. 推荐工具

    • 代理IP:快代理、芝麻代理。
    • 分布式爬虫:Scrapy + Redis(去重与任务队列)。

五、法律与道德规范

  1. 遵守robots.txt :检查目标网站的爬虫协议。
    • 访问 https://example.com/robots.txt
  2. 控制请求频率:避免对服务器造成压力。
  3. 数据用途:禁止商用或侵犯隐私。

六、进阶学习方向

  1. Scrapy框架:学习中间件、Item Pipeline、分布式爬虫。
  2. 动态渲染:掌握Selenium/Playwright自动化。
  3. 数据清洗 :使用pandas处理复杂数据。
  4. 反爬破解:逆向JavaScript加密参数(如AST解析)。

相关推荐
山土成旧客几秒前
【Python学习打卡-Day24】从不可变元组到漫游文件系统:掌握数据结构与OS模块
数据结构·python·学习
技术小甜甜5 分钟前
[Python] 使用 Tesseract 实现 OCR 文字识别全流程指南
开发语言·python·ocr·实用工具
leo__52010 分钟前
MATLAB 实现 基分类器为决策树的 AdaBoost
开发语言·决策树·matlab
idkmn_12 分钟前
Daily AI 20251219 (PyTorch基础回顾3)
人工智能·pytorch·python·深度学习·神经网络
老朱佩琪!15 分钟前
Unity原型模式
开发语言·经验分享·unity·设计模式·原型模式
毕设源码-郭学长16 分钟前
【开题答辩全过程】以 基于JAVA的车辆违章信息管理系统设计及实现为例,包含答辩的问题和答案
java·开发语言
while(1){yan}16 分钟前
UDP和TCP的核心
java·开发语言·网络·网络协议·tcp/ip·udp
Iridescent112118 分钟前
Iridescent:Day28
python
m0_7263658319 分钟前
大力学习台灯T6/T6Pro 救砖实战:macOS/Windows 用 mtkclient 从 Fastboot 无限重启完整恢复(含固件下载地址)
python·github·智能硬件
后端小张21 分钟前
【Java 进阶】深入理解Redis:从基础应用到进阶实践全解析
java·开发语言·数据库·spring boot·redis·spring·缓存