爬虫项目(1)

1.节点

想要获取网页中的数据,首先要获取网页 HTML 代码,再把数据从中提取出来。

我们要向网页的服务器发送请求,服务器返回的响应就是网页 HTML 代码

节点

(1)文档节点:就是文档的内容;

(2)标签节点:就是html里面对应的标签;

(3)属性节点:就是html里面标签的属性,比如长度,外边距,内边距等等;

2.解析模块

对于一个网页的节点来说,它可以定义id、class或其他属性,而且节点之间还有层级关系。

我们可以借助网页节点的结构和属性,提取想要的信息。在这里,我们来学习一个强大的解析工具

------BeautifulSoup

3.解析器

网络爬虫的最终目的就是过滤选取网络信息,最重要的部分可以说是解析器。解析器的优劣决定了爬虫的速度和效率。

Beautiful Soup 官方推荐我们使用的是 lxml 解析器,原因是它具有更高的效率,所以我们也将采用lxml解析器。

5.导入类

安装完成后,我们需要使用 bs4 模块中的 BeautifulSoup 类。

这就要使用 from...import 从 bs4 中导入 BeautifulSoup 。

6.函数传参

BeautifulSoup() 函数可以把不标准的 HTML 代码重新进行了自动更正,从而方便我们对其中的节点、标签、属性等进行操作。

复制代码
soup = BeautifulSoup(html, "lxml")
print(soup)

这段代码调用函数BeautifulSoup,

这个函数有2个参数,第一个是需要进行解析的html代码,第二个是解析器的类型;

使用 BeautifulSoup() 函数,创建一个 BeautifulSoup 对象,传入 HTML 文本和解析器 lxml。

7.找到对应节点处的内容

文本所在的位置,包含在<em>XXX</em>这样的节点中,它们都有相同的标签。

使用 BeautifulSoup 中的 find_all() 函数,获取所有符合指定条件的节点。

复制代码
ps = soup.find_all(name = "h1")
print(ps)

find_all() 函数可以查询 soup 中所有符合条件的元素,组成一个列表赋值给ps。

8.代码的完整实现

复制代码
import requests

from bs4 import BeautifulSoup

url = "https://xxxxxxxxxxxxxxxxx/"

response = requests.get(url)

html = response.text

soup = BeautifulSoup(html,"lxml")

content_all = soup.find_all(name="em")

print(content_all)
相关推荐
深蓝电商API6 小时前
Scrapy 中间件详解:自定义下载器与爬虫的 “拦截器”
爬虫·scrapy·中间件
浔川python社1 天前
网络爬虫技术规范与应用指南系列(xc—1)
数据库·爬虫
深蓝电商API1 天前
解析动态数据:如何抓取 JavaScript 加载的 AJAX 内容
爬虫·python
废弃的小码农1 天前
爬虫&逆向--Day25&Day26--京东h5st案例解析
爬虫
蒋星熠2 天前
爬虫与自动化技术深度解析:从数据采集到智能运维的完整实战指南
运维·人工智能·爬虫·python·深度学习·机器学习·自动化
livingbody2 天前
【2025年9月版 亲测可用】《人民日报》PDF文件下载
开发语言·爬虫·python·pdf
zybsjn4 天前
爬虫访问第三方 HTTPS 网站时遇到的 SSL 异常处理
爬虫
两只好4 天前
Scrapy 重构新选择:scrapy_cffi 快速上手教程
爬虫
深蓝电商API4 天前
爬虫的“Cookie”管理艺术:维持登录状态与会话
爬虫
B站_计算机毕业设计之家5 天前
大数据 Python小说数据分析平台 小说网数据爬取分析系统 Django框架 requests爬虫 Echarts图表 17k小说网 (源码)✅
大数据·爬虫·python·机器学习·数据分析·可视化·小说