Python爬虫学习笔记(六)————BeautifulSoup(bs4)解析

目录

1.bs4基本简介

(1)BeautifulSoup简称

(2)什么是BeatifulSoup?

(3)优缺点

2.bs4安装以及创建

(1)安装

(2)导入

(3)创建对象

3.节点定位

(1)根据标签名查找节点

(2)函数

①find(返回一个对象)

②find_all(返回一个列表)

③select(根据选择器得到节点对象)【推荐】

<1>element

<2>.class

<3>#id

<4>属性选择器

<5>层级选择器

4.节点信息

(1).获取节点内容:适用于标签中嵌套标签的结构

(2).节点的属性

(3).获取节点属性

5.实例

(1)解析本地文件生成对象

[(2)爬取星巴克网站产品图片及数据------ 解析服务器响应的文件生成对象](#(2)爬取星巴克网站产品图片及数据—— 解析服务器响应的文件生成对象)


1.bs4基本简介

(1)BeautifulSoup简称

bs4

(2)什么是BeatifulSoup?

BeautifulSoup,和lxml一样,是一个html的解析器,主要功能也是解析和提取数据

(3)优缺点

缺点:效率没有lxml的效率高

优点:接口设计人性化,使用方便

2.bs4安装以及创建

(1)安装

pip install bs4

(2)导入

from bs4 import BeautifulSoup

(3)创建对象

服务器响应的文件生成对象

soup = BeautifulSoup(response.read().decode(), 'lxml')

本地文件生成对象

soup = BeautifulSoup(open('1.html'), 'lxml')

注意:默认打开文件的编码格式gbk所以需要指定打开编码格式

3.节点定位

(1)根据标签名查找节点

soup.a 【注】只能找到第一个a

soup.a.name

soup.a.attrs

(2)函数

①find(返回一个对象)

find('a'):只找到第一个a标签

find('a', title='名字')

find('a', class_='名字')

②find_all(返回一个列表)

find_all('a') 查找到所有的a

find_all(['a', 'span']) 返回所有的a和span,要加中括号

find_all('a', limit=2) 只找前两个a

③select(根据选择器得到节点对象)【推荐】
<1>element

eg:p

<2>.class

eg:.firstname

<3>#id

eg:#firstname

<4>属性选择器

attribute

eg:li = soup.select('li[class]')

attribute=value

eg:li = soup.select('li[class="hengheng1"]')

<5>层级选择器

element element (空格)

div p

element>element

div>p

element,element

div,p

eg:soup = soup.select('a,span')

4.节点信息

(1).获取节点内容:适用于标签中嵌套标签的结构

obj.string

obj.get_text()【推荐】

(2).节点的属性

tag.name 获取标签名

eg:tag = find('li)

print(tag.name)

tag.attrs将属性值作为一个字典返回

(3).获取节点属性

obj.attrs.get('title')【常用】

obj.get('title')

obj['title']

5.实例

(1)解析本地文件生成对象

HTML文件

html 复制代码
<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <title>Title</title>
</head>
<body>

    <div>
        <ul>
            <li id="l1">张三</li>
            <li id="l2">李四</li>
            <li>王五</li>
            <a href="" id="" class="a1">尚硅谷</a>
            <span>嘿嘿嘿</span>
        </ul>
    </div>


    <a href="" title="a2">百度</a>

    <div id="d1">
        <span>
            哈哈哈
        </span>
    </div>

    <p id="p1" class="p1">呵呵呵</p>
</body>
</html>

python代码

python 复制代码
from bs4 import BeautifulSoup


# 通过解析本地文件 来将bs4的基础语法进行讲解
# 默认打开的文件的编码格式是gbk 所以在打开文件的时候需要指定编码
soup = BeautifulSoup(open('075_尚硅谷_爬虫_解析_bs4的基本使用.html',encoding='utf-8'),'lxml')

# 根据标签名查找节点
# 找到的是第一个符合条件的数据
print(soup.a)
# 获取标签的属性和属性值
print(soup.a.attrs)

# bs4的一些函数
# (1)find
# 返回的是第一个符合条件的数据
print(soup.find('a'))

# 根据title的值来找到对应的标签对象
print(soup.find('a',title="a2"))

# 根据class的值来找到对应的标签对象  注意的是class需要添加下划线,为了与class关键字区分
print(soup.find('a',class_="a1"))


# (2)find_all  返回的是一个列表 并且返回了所有的a标签
print(soup.find_all('a'))

# 如果想获取的是多个标签的数据 那么需要在find_all的参数中添加的是列表的数据
print(soup.find_all(['a','span']))

# limit的作用是查找前几个数据
print(soup.find_all('li',limit=2))


# (3)select(推荐)
# select方法返回的是一个列表  并且会返回多个数据
print(soup.select('a'))

# 可以通过.代表class  我们把这种操作叫做类选择器
print(soup.select('.a1'))

print(soup.select('#l1'))


# 属性选择器---通过属性来寻找对应的标签
# 查找到li标签中有id的标签
print(soup.select('li[id]'))

# 查找到li标签中id为l2的标签
print(soup.select('li[id="l2"]'))


# 层级选择器
#  后代选择器
# 找到的是div下面的li
print(soup.select('div li'))

# 子代选择器
#  某标签的第一级子标签
# 注意:很多的计算机编程语言中 如果不加空格不会输出内容  但是在bs4中 不会报错 会显示内容
print(soup.select('div > ul > li'))


# 找到a标签和li标签的所有的对象
print(soup.select('a,li'))

# 节点信息
#    获取节点内容
# select方法返回的是一个列表  并且会返回多个数据,所以要取列表第一个数据,即【0】才能获得数据
obj = soup.select('#d1')[0]
# 如果标签对象中 只有内容 那么string和get_text()都可以使用
# 如果标签对象中 除了内容还有标签 那么string就获取不到数据 而get_text()是可以获取数据
# 我们一般情况下  推荐使用get_text()
print(obj.string)
print(obj.get_text())

# 节点的属性
obj = soup.select('#p1')[0]
# name是标签的名字
print(obj.name)
# 将属性值左右一个字典返回
print(obj.attrs)

# 获取节点的属性
obj = soup.select('#p1')[0]

print(obj.attrs.get('class'))  # attrs返回属性的字典,字典的get方法
print(obj.get('class'))
print(obj['class'])

(2)爬取星巴克网站产品图片及数据------ 解析服务器响应的文件生成对象

python 复制代码
import urllib.request

url = 'https://www.starbucks.com.cn/menu/'

response = urllib.request.urlopen(url)

content = response.read().decode('utf-8')


from bs4 import BeautifulSoup

soup = BeautifulSoup(content,'lxml')

# xpath方法
# //ul[@class="grid padded-3 product"]//strong/text()

#bs4
name_list = soup.select('ul[class="grid padded-3 product"] strong')

for name in name_list:
    print(name.get_text())
相关推荐
我先去打把游戏先9 分钟前
ESP32学习笔记(基于IDF):ESP32连接MQTT服务器
服务器·笔记·单片机·嵌入式硬件·学习·esp32
deng-c-f3 小时前
Linux C/C++ 学习日记(29):IO密集型与CPU密集型、CPU的调度与线程切换
linux·学习·线程·cpu·io密集·cpu密集
四谎真好看5 小时前
Java 黑马程序员学习笔记(进阶篇18)
java·笔记·学习·学习笔记
洋洋的笔记5 小时前
银行测试学习计划
学习
应用市场5 小时前
构建自定义命令行工具 - 打造专属指令体
开发语言·windows·python
东方佑5 小时前
从字符串中提取重复子串的Python算法解析
windows·python·算法
Dfreedom.5 小时前
一文掌握Python四大核心数据结构:变量、结构体、类与枚举
开发语言·数据结构·python·变量·数据类型
一半烟火以谋生5 小时前
Python + Pytest + Allure 自动化测试报告教程
开发语言·python·pytest
Allan_20256 小时前
数据库学习
数据库·学习
报错小能手6 小时前
linux学习笔记(43)网络编程——HTTPS (补充)
linux·网络·学习