Python爬虫介绍——简单了解一下爬虫

1.下载requests库

在Python中,有两个非常流行的库用于爬虫开发:

  • requests:用于发送网络请求,获取网页内容.

  • BeautifulSoup:用于解析网页内容,提取需要的数据.

先安装爬虫的必要库

pip install requests

pip install beautifulsoup4

安装成功以后可以用这个查看库的信息

pip show requests

pip show beautifulsoup4

2.简单爬虫示例

接下来,我们会编写一个简单的爬虫,从一个网页上获取数据.

2.1. 获取网页内容

第一步是使用 requests 库来获取网页的内容.我们以获取百度首页为例.

复制代码
import requests

url = 'https://www.baidu.com'
response = requests.get(url)

print(response.text)

你会发现是乱码,这时候就要设置中文编码utf-8

复制代码
import requests

url = 'https://www.baidu.com'
response = requests.get(url)
response.encoding = 'utf-8'
print(response.text)

这些HTML代码,这就是百度首页的内容。

2. 2解析网页内容

获取网页内容后,我们需要用 BeautifulSoup 库来解析HTML,提取我们需要的信息,接下来我们解析百度首页的标题。

复制代码
import requests

url = 'https://www.baidu.com'
response = requests.get(url)
response.encoding = 'utf-8'

from bs4 import BeautifulSoup

soup = BeautifulSoup(response.text, 'html.parser')

title = soup.title.text
print('网页标题:', title)

2.3. 提取更多信息

让我们继续提取网页中的链接(<a>标签中的 href 属性)。这非常有用,例如你想抓取某个网站上的所有文章链接。

复制代码
import requests

url = 'https://www.baidu.com'
response = requests.get(url)
response.encoding = 'utf-8'

from bs4 import BeautifulSoup

soup = BeautifulSoup(response.text, 'html.parser')

title = soup.title.text

links = soup.find_all('a')

for link in links:
    href = link.get('href')
    print(href)
  • soup.find_all('a') 用于获取网页中的所有链接。
  • link.get('href') 获取每个链接的 href 属性,也就是网址。

日记

2月1日,星期日

无话可说

今天是单休日,我无话可说。

相关推荐
Howrun7772 小时前
可调用对象
开发语言·c++
2 小时前
java关于引用
java·开发语言
小小码农Come on2 小时前
QT布局介绍
开发语言·qt
晚风吹长发2 小时前
初步了解Linux中的线程概率及线程控制
linux·运维·服务器·开发语言·c++·centos·线程
naruto_lnq2 小时前
Python日志记录(Logging)最佳实践
jvm·数据库·python
yuankoudaodaokou2 小时前
高帧率扫描如何重塑动态三维扫描与思看科技300fps解决方案
python·科技
rainbow68892 小时前
Python零基础到精通全攻略
python
毕设源码-朱学姐2 小时前
【开题答辩全过程】以 基于python网络安全知识在线答题系统为例,包含答辩的问题和答案
开发语言·python·web安全
2301_765703142 小时前
Python异步编程入门:Asyncio库的使用
jvm·数据库·python