Python爬虫——解析库安装(1)

目录

  • 1.lxml安装
  • [2.Beautiful Soup安装](#2.Beautiful Soup安装)
  • [3.pyquery 的安装](#3.pyquery 的安装)

我创建了一个社区,欢迎大家一起学习交流。社区名称:Spider学习交流
注:该系列教程已经默认用户安装了Pycharm和Anaconda,未安装的可以参考我之前的博客有将如何安装。同时默认用户掌握了Python基础语法。
抓取网页代码之后,接着是从网页中提取信息,提取信息的方式有很多,可以使用正则来提取 ,但是写起来相对比较烦琐 。

在这用这些强大的解析库进行处理,,如 lxml、Beautiful Soup、pyquery等。

1.lxml安装

lxml是Python一个解析库,支持 HTML和XML解析,支持 XPath 解析方式,而且解析效率高。

python 复制代码
#1.打开anaconda prompt
#2.激活前面创建的conda虚拟环境
conda activate spider
#3.输入下述代码进行安装
conda install lxml

#验证是否安装成功
#4.输入
python
#5.导入该包
import lxml

1.安装界面

2.验证是否成功安装

2.Beautiful Soup安装

Beautiful Soup是Python的HTML和XML的解析库,它拥有强大的 API和多样的解析方式。

安装方法同上。

给大家放个网址,大家可以自己查看。
Beautiful Soup 4.12.0

大家可以进去网址可以知道3已经停止开发,因此我们安装4.

大家有时间,可以学学HTML(CSS+javascript)很有帮助,主要好理解。

python 复制代码
#1.打开anaconda prompt
#2.激活前面创建的conda虚拟环境
conda activate spider
#3.输入下述代码进行安装
conda install beautifulsoup4

#验证是否安装成功
#4.输入
python
#5.导入该包
from bs4 import BeautifulSoup 
soup = BeautifulSoup('<p>Hello World!<p/>','lxml')
print(soup.p.string)

1.安装界面

2.验证

3.pyquery 的安装

pyquery是个很强大的网页解析工具,它提供了和 jQuery 类似的语法来解析HTML 文梢,支持css 择器。

python 复制代码
#1.打开anaconda prompt
#2.激活前面创建的conda虚拟环境
conda activate spider
#3.输入下述代码进行安装
conda install pyquery
#验证是否安装成功
#4.输入
python
#5.导入该包
import pyquery

1.安装

2.验证是否成功安装,如下图无报错,即成功安装

相关推荐
浪里小妖龙6 分钟前
网络爬虫的基础知识
python
晓13136 分钟前
第七章 Python基础进阶-异常、模块与包(其五)
人工智能·python
赖皮猫10 分钟前
PIKIE-RAG 本地部署实践
后端·python·flask
T - mars17 分钟前
爬虫案例:使用webpack爬取批量数据
爬虫
无名之逆28 分钟前
[特殊字符] Hyperlane 框架:高性能、灵活、易用的 Rust 微服务解决方案
运维·服务器·开发语言·数据库·后端·微服务·rust
五指山西36 分钟前
异步框架使用loguru和contextvars实现日志按Id输出
python
小宁爱Python38 分钟前
Python从入门到精通4:计算机网络及TCP网络应用程序开发入门指南
网络·python·tcp/ip·计算机网络
Vitalia42 分钟前
⭐算法OJ⭐寻找最短超串【动态规划 + 状态压缩】(C++ 实现)Find the Shortest Superstring
开发语言·c++·算法·动态规划·动态压缩
thinkMoreAndDoMore1 小时前
深度学习处理文本(5)
人工智能·python·深度学习
最后一个bug1 小时前
PCI与PCIe接口的通信架构是主从模式吗?
linux·开发语言·arm开发·stm32·嵌入式硬件