requests入门

一.什么是requests?

之前我们使用from urllib.request import urlopen这个包进行爬虫。

requests也是Python的一个爬虫时可以选择使用的包,而且功能更强大。

二.下载Requests

三.使用Requests写一个爬虫小程序

爬豆瓣的电影页面的html

1.初步代码

python 复制代码
import requests
#要爬的url
url = "https://movie.douban.com/"
#使用requests爬上面的url,并获取响应数据
resp = requests.get(url)
#打印响应数据
print(resp)
print(resp.text)

运行结果:

2.设置请求头的User-Agent(请求者),解决反爬

第一步:获取豆瓣网的任意请求的请求头携带的User-Agent,并复制到粘贴板

第二步:修改爬虫代码

主要是将豆瓣的User-Agent的值,设置到代码的请求头即可。

python 复制代码
import requests
#要爬的url
url = "https://movie.douban.com/"
#解决豆瓣的反爬机制:设置请求头的请求者
myHeaders = {
    #从豆瓣获取即可:检查->网络->点击请求->标头->User-Agent
    "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/142.0.0.0 Safari/537.36 Edg/142.0.0.0"
}
#使用requests爬上面的url,并获取响应数据
resp = requests.get(url,headers=myHeaders)
#打印响应数据
print(resp)
print(resp.text)

查看运行效果:

四.一些细节的问题

1.上述爬虫代码,用的为什么是get请求,而不是post?

因为我们要爬的页面,它侧重于获取后端的电影数据,因此判断为get(可能会判断失误,到时候多试试别的请求也是没问题的)

2.requests的结果(resp)中,都包含哪些内容?我们为什么要打印resp.text?

而resp中的text,就代表所爬页面的html代码。

以上就是本篇文章的全部内容,喜欢的话可以留个免费的关注呦~~~

相关推荐
两万五千个小时1 小时前
落地实现 Anthropic Multi-Agent Research System
人工智能·python·架构
哈里谢顿4 小时前
Python 高并发服务限流终极方案:从原理到生产落地(2026 实战指南)
python
用户83562907805118 小时前
无需 Office:Python 批量转换 PPT 为图片
后端·python
markfeng820 小时前
Python+Django+H5+MySQL项目搭建
python·django
GinoWi21 小时前
Chapter 2 - Python中的变量和简单的数据类型
python
JordanHaidee21 小时前
Python 中 `if x:` 到底在判断什么?
后端·python
ServBay21 小时前
10分钟彻底终结冗长代码,Python f-string 让你重获编程自由
后端·python
闲云一鹤21 小时前
Python 入门(二)- 使用 FastAPI 快速生成后端 API 接口
python·fastapi
Rockbean1 天前
用40行代码搭建自己的无服务器OCR
服务器·python·deepseek
曲幽1 天前
FastAPI + Ollama 实战:搭一个能查天气的AI助手
python·ai·lora·torch·fastapi·web·model·ollama·weatherapi