Python爬虫

一、Python 爬虫核心概念

Python 爬虫本质是模拟浏览器向目标网站发送请求,获取网页数据后解析提取有用信息的程序,核心价值是批量、自动化获取公开网络数据,适用于数据分析、舆情监控、信息聚合等场景。

核心流程(四步走)
  • 发送请求:模拟浏览器向网站服务器发送 HTTP/HTTPS 请求(如 GET/POST);
  • 获取响应:服务器返回网页源码(HTML/JSON/XML);
  • 解析数据:从源码中提取目标信息(如标题、价格、链接);
  • 保存数据:将提取的信息存为 CSV/Excel/ 数据库等格式。

二、必备工具库(环境准备)

1. 基础环境

需安装 Python 3.8+(推荐 3.10),通过pip安装核心库:

bash

运行

复制代码
# 基础库(必装)
pip install requests beautifulsoup4 lxml
# 处理动态页面(可选)
pip install selenium
# 爬虫框架(进阶)
pip install scrapy
# 数据保存(可选)
pip install pandas openpyxl
2. 核心库功能说明
库名 核心作用 适用场景
requests 发送 HTTP 请求,获取网页响应 静态网页爬取(90% 场景)
BeautifulSoup4 (bs4) 解析 HTML/XML 源码,提取指定内容 静态网页数据解析
lxml 高性能 HTML/XML 解析库(支持 XPath) 复杂结构网页解析
selenium 模拟浏览器渲染动态页面(如 JS 加载的内容) 动态网页(如淘宝、抖音)
Scrapy 专业爬虫框架,支持并发、反爬、数据持久化 大型、批量爬虫项目

三、基础实战:爬取静态网页(新手必学)

以爬取豆瓣 Top250 图书(静态网页) 为例,实现完整爬虫流程:

python

运行

复制代码
import requests
from bs4 import BeautifulSoup
import pandas as pd

# 1. 配置请求头(模拟浏览器,避免被反爬)
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36"
}

# 2. 定义爬虫函数
def crawl_douban_book():
    # 存储数据的列表
    book_list = []
    # 爬取第一页(豆瓣Top250图书第一页)
    url = "https://book.douban.com/top250?icn=index-book250-all"
    
    try:
        # 发送GET请求
        response = requests.get(url, headers=headers, timeout=10)
        response.raise_for_status()  # 检查请求是否成功(状态码200)
        response.encoding = response.apparent_encoding  # 自动识别编码,避免乱码
        
        # 3. 解析网页源码
        soup = BeautifulSoup(response.text, "lxml")
        # 定位图书列表节点
        book_items = soup.find_all("tr", class_="item")
        
        # 提取每本图书的信息
        for item in book_items:
            book_info = {}
            # 提取书名
            book_info["title"] = item.find("div", class_="pl2").find("a")["title"]
            # 提取评分
            book_info["score"] = item.find("span", class_="rating_nums").text
            # 提取简介
            book_info["intro"] = item.find("p", class_="pl").text.strip()
            # 加入列表
            book_list.append(book_info)
        
        # 4. 保存数据为Excel
        df = pd.DataFrame(book_list)
        df.to_excel("豆瓣Top250图书_第一页.xlsx", index=False)
        print("爬取完成!数据已保存为Excel文件")
        
    except Exception as e:
        print(f"爬取出错:{e}")

# 执行爬虫
if __name__ == "__main__":
    crawl_douban_book()
代码说明:
  • headers:设置 User-Agent 模拟浏览器,避免被网站识别为爬虫;
  • requests.get():发送 GET 请求获取网页源码;
  • BeautifulSoup:通过标签 + 类名定位元素,提取书名、评分等信息;
  • pandas:将数据保存为 Excel,方便后续分析。
运行结果:

生成豆瓣Top250图书_第一页.xlsx文件,包含每本图书的书名、评分、作者 / 出版社等信息。

四、进阶技巧:应对反爬与动态页面

1. 常见反爬策略及应对
反爬手段 应对方法
检测 User-Agent 配置真实的 User-Agent,甚至随机切换
限制请求频率 加入延时(time.sleep(1-3)),避免高频请求
IP 封禁 使用代理 IP 池(如快代理、芝麻代理)
验证码 对接打码平台(如超级鹰)或手动识别
2. 爬取动态页面(Selenium 示例)

针对 JS 加载的页面(如某电商商品价格),用 Selenium 模拟浏览器:

python

运行

复制代码
from selenium import webdriver
from selenium.webdriver.common.by import By
import time

# 初始化浏览器(需提前下载ChromeDriver,与浏览器版本匹配)
driver = webdriver.Chrome()

try:
    # 打开目标页面
    driver.get("https://www.xxx.com/xxx")
    time.sleep(2)  # 等待页面加载
    
    # 提取动态加载的价格
    price = driver.find_element(By.CLASS_NAME, "price").text
    print(f"商品价格:{price}")
    
finally:
    driver.quit()  # 关闭浏览器

五、合规与注意事项(必看)

  1. 遵守 robots 协议 :访问目标网站https://xxx.com/robots.txt,查看允许爬取的范围;
  2. 控制请求频率:避免短时间高频请求,给服务器造成压力(建议每次请求间隔 1-3 秒);
  3. 仅爬取公开数据:禁止爬取隐私信息(如手机号、身份证)、付费内容,避免法律风险;
  4. 注明数据用途:爬取的数据仅限个人学习 / 研究,禁止商用或恶意传播。

总结

  1. Python 爬虫核心流程:发请求→取响应→解析数据→存数据 ,新手先掌握requests+bs4爬取静态页面;
  2. 反爬应对核心:模拟真实浏览器行为(请求头、延时),避免高频请求;
  3. 合规第一:遵守网站规则,仅爬取公开、非隐私数据,避免法律风险。
相关推荐
孤狼warrior几秒前
YOLO目标检测 一千字解析yolo最初的摸样 模型下载,数据集构建及模型训练代码
人工智能·python·深度学习·算法·yolo·目标检测·目标跟踪
devmoon8 分钟前
在 Polkadot Runtime 中添加多个 Pallet 实例实战指南
java·开发语言·数据库·web3·区块链·波卡
Katecat9966311 分钟前
YOLO11分割算法实现甲状腺超声病灶自动检测与定位_DWR方法应用
python
Evand J11 分钟前
TDOA(到达时间差)的GDOP和CRLB计算的MATLAB例程,论文复现,附参考文献。GDOP:几何精度因子&CRLB:克拉美罗下界
开发语言·matlab·tdoa·crlb·gdop
野犬寒鸦12 分钟前
从零起步学习并发编程 || 第七章:ThreadLocal深层解析及常见问题解决方案
java·服务器·开发语言·jvm·后端·学习
云姜.15 分钟前
java抽象类和接口
java·开发语言
xyq202425 分钟前
Pandas 安装指南
开发语言
xixixin_34 分钟前
【JavaScript 】从 || 到??:JavaScript 空值处理的最佳实践升级
开发语言·javascript·ecmascript
玩大数据的龙威37 分钟前
农经权二轮延包—各种地块示意图
python·arcgis
ZH154558913139 分钟前
Flutter for OpenHarmony Python学习助手实战:数据库操作与管理的实现
python·学习·flutter