Python爬虫案例分享

1. 导入所需库:

复制代码
import requests
from bs4 import BeautifulSoup
  • requests库:这是一个Python HTTP客户端库,用于发送HTTP请求。在这个案例中,我们使用它来向目标网站发送GET请求,获取网页内容。
  • BeautifulSoup库:它是Python的一个解析库,主要用于解析HTML和XML文档。在爬虫项目中,我们经常用它来解析从网页获取的HTML文本,提取我们需要的数据。

2. 发送GET请求:

复制代码
url = 'https://news.example.com/latest'
response = requests.get(url)

这段代码定义了要爬取的URL,并通过requests.get()函数发送一个GET请求到该URL。返回的response对象包含了服务器对请求的响应,包括状态码、响应头和网页内容等信息。

3. 检查请求是否成功:

复制代码
if response.status_code == 200:

HTTP状态码200表示请求成功。如果请求失败或者服务器无法正常响应,状态码会是其他值。这里我们只处理成功的情况。

4. 解析HTML并提取数据:

复制代码
soup = BeautifulSoup(response.text, 'html.parser')
news_titles = soup.find_all('h2')

for title in news_titles:
    print(title.text.strip())

首先,我们调用BeautifulSoup的构造函数,传入response的text属性(即网页内容)进行解析。然后,我们使用find_all()方法查找所有的'h2'标签,通常新闻标题会在这样的大标题标签内。最后,遍历找到的所有'h2'标签,提取并打印出它们的文本内容(title.text),strip()函数用于去除字符串首尾的空白字符。

这就是这个简单Python爬虫的基本原理和流程。实际编写爬虫时,根据不同的网页结构和需要抓取的数据,可能需要使用更复杂的BeautifulSoup选择器或方法来定位和提取信息。

相关推荐
曲幽5 分钟前
FastAPI不止于API:手把手教你用Jinja2打造动态Web页面
python·fastapi·backend·jinja2·full stack·template engine·web development
禹凕10 分钟前
Python编程——进阶知识(多线程)
开发语言·爬虫·python
Ulyanov14 分钟前
基于Pymunk物理引擎的2D坦克对战游戏开发
python·游戏·pygame·pymunk
铉铉这波能秀14 分钟前
LeetCode Hot100数据结构背景知识之字典(Dictionary)Python2026新版
数据结构·python·算法·leetcode·字典·dictionary
程序媛徐师姐30 分钟前
Python基于爬虫的网络小说数据分析系统【附源码、文档说明】
爬虫·python·python爬虫·网络小说数据分析系统·pytho网络小说数据分析系统·python爬虫网络小说·python爬虫的网络小说数据
清水白石00837 分钟前
深入解析 LRU 缓存:从 `@lru_cache` 到手动实现的完整指南
java·python·spring·缓存
JaydenAI41 分钟前
[LangChain之链]LangChain的Chain——由Runnable构建的管道
python·langchain
kali-Myon41 分钟前
2025春秋杯网络安全联赛冬季赛-day3
python·安全·web安全·ai·php·web·ctf
AbsoluteLogic1 小时前
Python——彻底明白Super() 该如何使用
python
小猪咪piggy1 小时前
【Python】(4) 列表和元组
开发语言·python