爬虫 网页数据的解析提取

Xpath

常用规则

表达式 描述
nodename 选取此节点的所有子节点
/ 从当前节点选取直接子节点
// 从当前节点选取子孙节点
. 选取当前节点
.. 选取当前节点的父亲节点
@ 选取属性

表达式//title[@lang='eng']表示选择所有名称为title,同时属性lang的值为eng的节点。

安装

Python 复制代码
pip3 install lxml

实例

Python 复制代码
from lxml import etree

text = '''
<div>
    <ul>
        <li class="item-0"><a href="link1.html">first item</a></li>
        <li class="item-1"><a href="link2.html">second item</a></li>
        <li class="item-inactive"><a href="link3.html">third item</a></li>
        <li class="item-1"><a href="link4.html">fourth item</a></li>
        <li class="item-0"><a href="link5.html">fifth item</a>
    </ul>
</div>
'''

html = etree.HTML(text)
result = etree.tostring(html)
print(result.decode('utf-8'))

导入lxml库的etree模块并调用HTML类对一段HTML文本进行初始化,这样就构造了一个Xpath解析对象。注意HTML文本中的最后一个li节点是没有闭合的,但是etree模块自动修正了HTML文本,并且自动添加了body、html节点。调用tostring方法输出修正后的bytes类型的HTML代码。

也可以直接解析html文件:

Python 复制代码
from lxml import etreeh

html = etree.parse('./temp.html', etree.HTMLParser())
result = etree.tostring(html)
print(result.decode('utf-8'))

其中temp.html就是上个例子中的HTML文本。这次的结果多了一个DOCPYTE声明。

所有节点

一般用//开头的Xpath规则,来选取所有符合规则的节点:

Python 复制代码
from lxml import etree

html = etree.parse('./temp.html', etree.HTMLParser())
result = html.xpath('//*')
print(type(result))
print(result)

*表示匹配所有节点,运行结果就是整个HTML文本的所有节点,形式是一个element的列表。

Python 复制代码
from lxml import etree

html = etree.parse('./temp.html', etree.HTMLParser())
result = html.xpath('//li')
print(result)
print(result[0])

表达式//li就能获取全部的li节点。

子节点

通过/或者//可查找子节点或者子孙节点。

Python 复制代码
from lxml import etree

html = etree.parse('./temp.html', etree.HTMLParser())
result = html.xpath('//li/a')
print(result)

表达式//li/a用于获取所有li节点的所有直接子节点a。

Python 复制代码
from lxml import etree

html = etree.parse('./temp.html', etree.HTMLParser())
result = html.xpath('//ul//a')
print(result)

/用于获取直接子节点,要获取节点所有符合要求的子孙节点,可以使用//:

Python 复制代码
from lxml import etree

html = etree.parse('./temp.html', etree.HTMLParser())
result = html.xpath('//ul//a')
print(result)

//ul//a是获取所有ul节点的所有子孙节点a。

Python 复制代码
from lxml import etree

html = etree.parse('./temp.html', etree.HTMLParser())
result = html.xpath('//ul/a')
print(result)

因为ul节点的子节点中没有a节点,所以返回结果为空。注意/和//的区别。

父节点

..可以用来查找父节点。

Python 复制代码
from lxml import etree

html = etree.parse('./temp.html', etree.HTMLParser())
result = html.xpath('//a[@href="link4.html"]/../@class')
print(result)

//a[@href="link4.html"]/../@class表示href属性为link4.html的a节点的父节点,再获取该节点的class属性。

也可以用parent::获取父节点:

Python 复制代码
from lxml import etree

html = etree.parse('./temp.html', etree.HTMLParser())
result = html.xpath('//a[@href="link4.html"]/parent::*/@class')
print(result)

属性匹配

@符合可以用于属性过滤

Python 复制代码
from lxml import etree

html = etree.parse('./temp.html', etree.HTMLParser())
result = html.xpath('//li[@class="item-0"]')
print(result)

@class="item-0"\]限制了节点li的class属性为item-0。 ## 文本获取 Xpath的text方法可以获取节点中的文本。 ```Python from lxml import etree html = etree.parse('./temp.html', etree.HTMLParser()) result = html.xpath('//li[@class="item-0"]/text()') print(result) ``` ![image.png](https://file.jishuzhan.net/article/1783043331605925890/5a0fb68af9143a4244525bda56a12497.webp) 没有获取任何文本,只得到了一个换行符。原因是text方法前面的是/,而/选取的是直接子节点。li节点的直接子节点都是a节点,文本实际上是a节点内部的。这里返回的是自动修正的li节点内部的换行符。 想获取li节点内部的文本有两个方法。第一是先选取li节点内部的a节点,再提取a节点内部的文本。 ```Python from lxml import etree html = etree.parse('./temp.html', etree.HTMLParser()) result = html.xpath('//li[@class="item-0"]/a/text()') print(result) ``` ![image.png](https://file.jishuzhan.net/article/1783043331605925890/0998e961624da70409c249496c983368.webp) 这种情况下我们是逐层选取的。 另一种方法是使用//选取所有子孙节点的文本。 ```Python from lxml import etree html = etree.parse('./temp.html', etree.HTMLParser()) result = html.xpath('//li[@class="item-0"]//text()') print(result) ``` ![image.png](https://file.jishuzhan.net/article/1783043331605925890/fd158c6d6efe68796ce1ca844b6b03b3.webp) 这样就获取了所有子孙节点的文本。但是这样的结果可能会掺杂一些特殊字符。 ## 属性获取 @也可以用来获取节点的属性。 ```Python from lxml import etree html = etree.parse('./temp.html', etree.HTMLParser()) result = html.xpath('//li/a/@href') print(result) ``` ![image.png](https://file.jishuzhan.net/article/1783043331605925890/6123a4625632844fece0a71b65c837ec.webp) 这样可以获取所有li节点的所有子节点a的href属性。

相关推荐
Minyy111 小时前
SpringBoot程序的创建以及特点,配置文件,LogBack记录日志,配置过滤器、拦截器、全局异常
xml·java·spring boot·后端·spring·mybatis·logback
画个大饼3 小时前
Go语言实战:快速搭建完整的用户认证系统
开发语言·后端·golang
iuyou️8 小时前
Spring Boot知识点详解
java·spring boot·后端
一弓虽8 小时前
SpringBoot 学习
java·spring boot·后端·学习
姑苏洛言9 小时前
扫码小程序实现仓库进销存管理中遇到的问题 setStorageSync 存储大小限制错误解决方案
前端·后端
光而不耀@lgy9 小时前
C++初登门槛
linux·开发语言·网络·c++·后端
方圆想当图灵9 小时前
由 Mybatis 源码畅谈软件设计(七):SQL “染色” 拦截器实战
后端·mybatis·代码规范
毅航10 小时前
MyBatis 事务管理:一文掌握Mybatis事务管理核心逻辑
java·后端·mybatis
我的golang之路果然有问题10 小时前
速成GO访问sql,个人笔记
经验分享·笔记·后端·sql·golang·go·database
柏油10 小时前
MySql InnoDB 事务实现之 undo log 日志
数据库·后端·mysql