python
复制代码
from bs4 import BeautifulSoup
html = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title" name="dromouse"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" id="link1"><!-- Elsie --></a>,
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
<p class="story">...</p>
"""
soup = BeautifulSoup(html, 'lxml')
def BeautifulSoupInit():
# prettify可以把要解析的字符串以标准的缩进格式输出
print(soup.prettify())
print(soup.title.string)
def nodeSelector():
# 节点选择器
# 直接调用节点的名称就可以选择节点元素,再调用string属性就可以得到节点内的文本了
print(soup.title)
print(type(soup.title))
print(soup.title.string)
print(soup.head)
# 当有多个节点时,这种选择方式只会选择到第一个匹配的节点,其他的后面节点都会忽略
print(soup.p)
# 调用 name属性就可以得到节点名称:
print(soup.title.name)
# 调用attrs获取所有属性:
print(soup.p.attrs)
# 调用attrs获取name属性:
print(soup.p.attrs['name'])
# ----------等价写法------
print(soup.p['name'])
print(soup.p['class'])
# ----------------------
def relatedSelection():
html = """
<html>
<head>
<title>The Dormouse's story</title>
</head>
<body>
<p class="story">
Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" id="link1">
<span>Elsie</span>
</a>
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a>
and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>
and they lived at the bottom of a well.
</p>
<p class="story">...</p>
"""
soup = BeautifulSoup(html, 'lxml')
# 关联选择
# 选取节点元素之后,如果想要获取它的直接子节点,可以调用contents属性
# 得到的结果是直接子节点的列表
print(soup.p.contents)
# 可以调用children属性得到相应的结果
print(soup.p.children) # 这里返回的是生成器类型
for i,child in enumerate(soup.p.children): # 这里使用for循环遍历输出
print(i,child)
# 如果要得到所有的子孙节点的话,可以调用descendants属性:
for i,child in enumerate(soup.p.descendants): # 这里使用for循环遍历输出
print(i,child)
def queryTheFatherNode():
# 查询父亲节点
html = """
<html>
<head>
<title>The Dormouse's story</title>
</head>
<body>
<p class="story">
Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" id="link1">
<span>Elsie</span>
</a>
</p>
<p class="story">...</p>
"""
soup = BeautifulSoup(html, 'lxml')
# 如果要获取某个节点元素的父节点,可以调用 parent 属性:
# print(soup.a.parent)
# 如果想获取所有的祖先节点,可以调用 parents 属性
print(list(enumerate(soup.a.parents)))
def querySiblingNodes():
# 查询兄弟节点
# 这里调用了 4 个属性,其中 next_sibling 和 previous_sibling 分别获取节点的下一个和上一个兄弟元素
# next_siblings 和 previous_siblings 则分别返回后面和前面的兄弟节点。
html = """
<html>
<body>
<p class="story">
Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" id="link1">
<span>Elsie</span>
</a>
Hello
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a>
and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>
and they lived at the bottom of a well.
</p>
"""
soup = BeautifulSoup(html, 'lxml')
print('Next Sibling', soup.a.next_sibling)
print('Prev Sibling', soup.a.previous_sibling)
print('Next Siblings', list(enumerate(soup.a.next_siblings)))
print('Prev Siblings', list(enumerate(soup.a.previous_siblings))) #190
def extractInfo():
# 提取信息
html = """
<html>
<body>
<p class="story">
Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" id="link1">Bob</a><a href="http://example.com/lacie" class="sister" id="link2">Lacie</a>
</p>
"""
# 注意事项:
# 如果返回结果是单个节点,那么可以直接调用 string、attrs 等属性获得其文本和属性;
# 如果返回结果是多个节点的生成器,则可以转为列表后取出某个元素,然后再调用 string、attrs 等属性获取其对应节点的文本和属性。
soup = BeautifulSoup(html, 'lxml')
print('Next Sibling:')
print(type(soup.a.next_sibling))
print(soup.a.next_sibling)
print(soup.a.next_sibling.string)
print('Parent:')
print(type(soup.a.parents))
print(list(soup.a.parents)[0])
print(list(soup.a.parents)[0].attrs['class'])
# 方法选择器
def methodSelector():
# find_all() 方法可以查找所有符合条件的节点,并返回一个列表。
# find_all api :soup.find_all(name=None, attrs=None, recursive=True, string=None, **kwargs)
# name:节点名称,可以是字符串或列表。
# attrs:节点属性,可以是字典或列表。
# recursive:是否递归查找子孙节点。
# string:节点文本,可以是字符串或正则表达式。
# **kwargs:其他关键字参数,比如 limit、offset 等。
# 示例:
html = '''
<div class="panel">
<div class="panel-heading">
<h4>Hello</h4>
</div>
<div class="panel-body">
<ul class="list" id="list-1">
<li class="element">Foo</li>
<li class="element">Bar</li>
<li class="element">Jay</li>
</ul>
<ul class="list list-small" id="list-2">
<li class="element">Foo</li>
<li class="element">Bar</li>
</ul>
</div>
</div>
'''
soup = BeautifulSoup(html, 'lxml')
print(soup.find_all(name='ul'))
print(type(soup.find_all(name='ul')[0]))
# 继续查询内部节点
for ul in soup.find_all(name='ul'):
# 继续查询 li 节点
for li in ul.find_all(name='li'):
print(li.string)
# 方法选择器 - 根据属性选择节点
def methodSelectorByAttrs():
html = '''
<div class="panel">
<div class="panel-heading">
<h4>Hello</h4>
</div>
<div class="panel-body">
<ul class="list" id="list-1" name = "elements">
<li class="element">Foo</li>
<li class="element">Bar</li>
<li class="element">Jay</li>
</ul>
<ul class="list list-small" id="list-2">
<li class="element">Foo</li>
<li class="element">Bar</li>
</ul>
</div>
</div>
'''
soup = BeautifulSoup(html, 'lxml')
# 查找id属性为list-1的ul节点
print(soup.find_all(attrs={'id': 'list-1'}))
# 查找name属性为elements 的ul节点
print(soup.find_all(attrs={'name': 'elements'}))
# 对于一些常用的属性 我们可以不用attrs参数,直接传入属性名和属性值
# 查询id属性为list-1的ul节点
print(soup.find_all(id='list-1'))
# 方法选择器 - 根据文本选择节点
def methodSelectorByString():
# string 参数可用来匹配节点的文本,传入的形式可以是字符串,可以是正则表达式对象
html = '''
<div class="panel">
<div class="panel-body">
<a>Hello, this is a link</a>
<a>Hello, this is a link, too</a>
</div>
</div>
'''
soup = BeautifulSoup(html, 'lxml')
# 查找文本包含 link 的 结点
print(soup.find_all(string=re.compile('link')))
# 这里有两个 a 节点,其内部包含文本信息。这里在 find_all() 方法中传入 text 参数,该参数为正则表达式对象,结果返回所有匹配正则表达式的节点文本组成的列表。
# 方法选择器 - find方法
def methodSelectorFind():
# find 方法可以查找符合条件的第一个节点,并返回节点对象。
# 与find_all()方法的区别:
# find_all()方法返回的是一个列表,而find()方法返回的是一个节点对象。
html = '''
<div class="panel">
<div class="panel-heading">
<h4>Hello</h4>
</div>
<div class="panel-body">
<ul class="list" id="list-1">
<li class="element">Foo</li>
<li class="element">Bar</li>
<li class="element">Jay</li>
</ul>
<ul class="list list-small" id="list-2">
<li class="element">Foo</li>
<li class="element">Bar</li>
</ul>
</div>
</div>
'''
soup = BeautifulSoup(html, 'lxml')
# 查找第一个ul节点
print(soup.find(name='ul'))
# 查找class属性为list的ul节点
print(soup.find(attrs={'class': 'list'}))
# css 选择器
def cssSelector():
# CSS 选择器是一种基于选择器语法的语言,可以用来选择 HTML 文档中的元素。
# 语法:
# 选择器:选择器可以是标签名、类名、ID名、属性、伪类等。
# 组合器:可以组合多个选择器,如后代选择器、子选择器、相邻兄弟选择器等。
# 示例:
html = '''
<div class="panel">
<div class="panel-heading">
<h4>Hello</h4>
</div>
<div class="panel-body">
<ul class="list" id="list-1">
<li class="element">Foo</li>
<li class="element">Bar</li>
<li class="element">Jay</li>
</ul>
<ul class="list list-small" id="list-2">
<li class="element">Foo</li>
<li class="element">Bar</li>
</ul>
</div>
</div>
'''
soup = BeautifulSoup(html, 'lxml')
print(soup.select('.panel .panel-heading')) # 选择 class 为 panel 的 div 元素下的 class 为 panel-heading 的 h4 元素
print(soup.select('#list-1 .element')) # 选择 id 为 list-1 的 ul 元素下的 class 为 element 的 li 元素
print(soup.select('ul li')) # 选择 ul 元素下的 li 元素
print(soup.select('#list-2 .element')) # 选择 id 为 list-2 的 ul 元素下的 class 为 element 的 li 元素
print(type(soup.select('ul')[0])) # 选择第一个 ul 元素
# 嵌套选择器
def nestedSelector():
# 嵌套选择器可以选择子元素的子元素。
# 语法:
# 选择器1 选择器2
# 示例:
html = '''
<div class="panel">
<div class="panel-heading">
<h4>Hello</h4>
</div>
<div class="panel-body">
<ul class="list" id="list-1">
<li class="element">Foo</li>
<li class="element">Bar</li>
<li class="element">Jay</li>
</ul>
<ul class="list list-small" id="list-2">
<li class="element">Foo</li>
<li class="element">Bar</li>
</ul>
</div>
</div>
'''
soup = BeautifulSoup(html, 'lxml')
for ul in soup.select('ul'): # 选择所有的 ul 元素
print(ul.select('li')) # 选择 ul 元素下的 li 元素
# 获取属性值
for ul in soup.select('ul'):
print(ul['id'])
print(ul.attrs['id'])
nestedSelector()