用python抓取网页数据的基础方法

引言

在数据科学和网络爬虫领域,网页抓取是一项关键技术。Python凭借其丰富的第三方库,能够高效地简化网页解析与数据提取流程,已成为该领域的流行选择。本文将介绍几种常见的网页抓取方法,供需要的读者参考。

1. 使用 requests 和 BeautifulSoup 进行网页抓取

1.1 安装依赖

你需要安装 requests 和 beautifulsoup4 库。这两个库分别用于网页请求和网页解析。

python 复制代码
pip install requests beautifulsoup4

1.2 确保网络畅通,能够访问目标网站

1.3 基本用法

python 复制代码
import requests
from bs4 import BeautifulSoup

# 目标网页URL
url = 'https://www.example.com'

# 请求头,模拟浏览器访问,避免被反爬
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36",
    "Referer": "https://www.example.com",
    "Accept-Language": "zh-CN,zh;q=0.9,en;q=0.8"
}

# 发送HTTP请求
response = requests.get(url, headers=headers, timeout=10)
# response.raise_for_status()  # 抛出HTTP请求异常
response.encoding = "utf-8"  # 设置编码

# 检查请求是否成功
if response.status_code == 200:
    # 解析HTML内容
    soup = BeautifulSoup(response.text, 'html.parser')

    # 找到页面中的标题(<title>标签)
    title = soup.find('title').text
    print('页面标题:', title)
    # 找到特定div的内容
    divs = soup.find_all('article',class_='blog-list-box')
    # 得到一个集合
    print(divs[0])
    # 根据具体需要,我们可以获取不同html标签的内容,进行显示或者存储操作
else:
    print('请求失败,状态码:', response.status_code)

1.4 总结

总之,Python 提供了多种强大的网页抓取方法,适用于不同类型的网页。requests 和 BeautifulSoup 是最基础的组合,适合静态网页的抓取,后续还需总结其他复杂网页、使用框架抓取网页的方法,文档带进一步完善。

相关推荐
2301_795099742 分钟前
让 CSS Grid 自适应容器尺寸的动态布局方案
jvm·数据库·python
AI进化营-智能译站6 分钟前
ROS2 C++开发系列12-用多态与虚函数构建可扩展的ROS2机器人行为模块
开发语言·c++·ai·机器人
呆萌的代Ma7 分钟前
python读取并加载.env的配置文件
python
Muyuan19988 分钟前
27.RAG 系统中的上下文充分性判断:从 Chunk 数量、FAISS 距离到 LLM Relevance Gate
python·django·pdf·fastapi·faiss
iCxhust9 分钟前
微机原理实践教程(C语言篇)---A002流水灯
c语言·开发语言·单片机·嵌入式硬件·51单片机·课程设计·微机原理
莎士比亚的文学花园31 分钟前
Linux驱动开发(3)——设备树
开发语言·javascript·ecmascript
图码38 分钟前
如何用多种方法判断字符串是否为回文?
开发语言·数据结构·c++·算法·阿里云·线性回归·数字雕刻
U盘失踪了44 分钟前
python curl转python脚本
开发语言·chrome·python
charlie1145141911 小时前
Linux 字符设备驱动:cdev、设备号与设备模型
linux·开发语言·驱动开发·c
handler011 小时前
Linux 内核剖析:进程优先级、上下文切换与 O(1) 调度算法
linux·运维·c语言·开发语言·c++·笔记·算法