Python网络爬虫设计(二)

目录

六、BeautifulSoup库

1、常见的提取分析网页内容的三种方式

(1)正则表达式

(2)BeautifulSoup库

(3)pyppeteer库中的元素查找函数

2、HTML中的tag

3、BeautifulSoup库的安装和导入

4、BeautifulSoup库分析过程

5、利用BeautifulSoup库分析HTML

6、BeautifulSoup库进阶


六、BeautifulSoup库

1、常见的提取分析网页内容的三种方式

(1)正则表达式

Python自带的re库中的正则表达式,对于网页内容的提取分析非常方便,而且速度极快,但是适应性较差,可能面对不同的页面,正则表达式就需要修改

(2)BeautifulSoup库

速度和正则表达式接近,但是还是没有正则表达式快

(3)pyppeteer库中的元素查找函数

速度较慢(约是正则表达式的百分之一)

2、HTML中的tag

当我们随机打开一个页面,右键页面空白处,然后点击检查,我们就可以看到一个网页的源码,而在源码中,我们会发现源码中包含很多的尖括号,即"<>",这就是一个tag

大部分的tag都包含<x>和</x>,只有极少数的只有一个<x>(这里的x就是tag的名字)

当然,tag也可以嵌套,即一个tag里面包含另一个tag

不同的tag可能会包含不同的功能,而有的tag里面会包含一些属性,或者一些网站的路径(href,src等),我们可以根据某些特定的tag或者属性,来定位到,查找到我们想要的内容

3、BeautifulSoup库的安装和导入

我们使用pip命令来安装BeautifulSoup库

复制代码
pip install beautifulsoup4

在Python中,我们需要这样导入BeautifulSoup库:

python 复制代码
import bs4

4、BeautifulSoup库分析过程

①先把HTML文档装入一个BeautifulSoup对象中

②针对对象,我们使用find或者find_all等函数找到我们想要的tag

③找到tag后,可以再次使用find或者find_all等函数去找内部嵌套的tag或者相关的内容

5、利用BeautifulSoup库分析HTML

我们先创建一个HTML文档

html 复制代码
<!DOCTYPE html>
<html lang="zh-CN">
<head>
    <meta charset="UTF-8">
    <meta name="viewport" content="width=device-width, initial-scale=1.0">
    <title>Document</title>
</head>
<body>
    <h1>这是一个网页</h1>
    <a href="https://www.baidu.com">点我进入百度</a>
    <a href="https://www.google.com">点我进入谷歌</a>
</body>
</html>

再在其当前文件创建一个py文件:

python 复制代码
import bs4

Soup = bs4.BeautifulSoup(open(r"D:\学习\Python\001.html" , "r" , encoding = "utf-8") , "html.parser")
#"html.parser" 是一个解析器的名称,用于解析 HTML 文档
tags = Soup.find_all("a")       #如果只想输出第一个,就是用find函数

for tag in tags :
        print(tag.text)

输出:

当然,我们可以把第一行换成一个字符串,字符串里面包含一个HTML文档,也可以指定一个网址,用getHTML()

6、BeautifulSoup库进阶

上面的代码只是寻找一个tag的内容或者输出所有名字为x的一类tag,上面提到tag是可以嵌套的,而且tag拥有可以拥有很多属性(比如class,id等)那么我们怎么在众多的属性中和嵌套中找到我们想要的结果:

HTML代码:

html 复制代码
<!DOCTYPE html>
<html lang="zh-CN">
<head>
    <meta charset="UTF-8">
    <meta name="viewport" content="width=device-width, initial-scale=1.0">
    <title>test</title>
</head>
<body>
    <span id="css">
        <p>这是一个p标签</p>
    </span>
    <span id="html">
        <div class="p1">这是一个div标签1</div>
        <div class="p2">这是一个div标签2</div>
        <div class="p3">这是一个div标签3</div>
        <div class="p4">
            <scy class="scy" id="hello">
                <a class="one" href="https://www.baidu.com">点我进入百度</a>
                <a class="two" href="https://www.google.com">点我进入谷歌</a>
            </scy>
        </div>


    </span>
</body>
</html>

Python代码:

python 复制代码
import bs4

soup = bs4.BeautifulSoup(open(r"D:\学习\Python\001.html" , encoding = "utf-8") , "html.parser")
#打开文件并读取内容
diva = soup.find("span" , attrs = {"id" : "html"})
#先寻找一个id是html的span标签

if diva != None :   #如果有符合要求的
    for x in diva.find_all("div" , attrs = {"class" : "p4"}) :      #再在里面找有没有class是p4的div标签
        print(x.text)

        if x != None :      #这里x就是class是p4的div标签,在此基础上如果x存在
            for y in x.find_all("a" , attrs = {"class" : "one"}) :  #就在x中找有没有class是one的a标签
                print(y.text)
                print(y["href"])    #输出符合条件的标签的href属性中的内容

输出:

以上就是Python网络爬虫设计(二)的全部内容:)

相关推荐
徐赛俊16 分钟前
# 自动定时运行Python爬虫脚本教程(Windows任务计划程序)
windows·爬虫·python
华科云商xiao徐9 小时前
自适应爬虫代码实现流程
爬虫
一勺菠萝丶14 小时前
零基础掌握 Scrapy 和 Scrapy-Redis:爬虫分布式部署深度解析
redis·爬虫·scrapy
华科云商xiao徐1 天前
Go语言高并发价格监控系统设计
爬虫
超龄超能程序猿1 天前
玩转 Playwright 有头与无头模式:消除差异,提升爬虫稳定性
前端·javascript·爬虫
小Tomkk2 天前
使用 Trea cn 设计 爬虫程序 so esay
爬虫·trae cn
鹿邑网爬2 天前
Python抖音关键词视频爬取实战:批量下载与分析热门视频数据
爬虫·python
什么都想学的阿超2 天前
【网络与爬虫 38】Apify全栈指南:从0到1构建企业级自动化爬虫平台
网络·爬虫·自动化
laocooon5238578862 天前
爬虫,获取lol英雄名单。
爬虫
十三浪3 天前
开源框架推荐:API数据批处理与爬虫集成
爬虫·开源