【酱浦菌-爬虫项目】爬取百度文库文档

  1. 首先,定义了一个变量`url`,指向百度文库的搜索接口 'https://wenku.baidu.com/gsearch/rec/pcviewdocrec'。

  2. 然后,设置了请求参数`data`,包括文档ID(`docId`)和查询关键词(`query`)。

  3. 定义了HTTP请求的头部信息,模拟了一个Chrome浏览器的请求。

  4. 使用`requests.get()`方法,发送一个GET请求到指定的URL,并将响应内容保存在`response`变量中。

  5. 从响应的JSON数据中提取了相关文档的信息,包括图片的URL。

  6. 遍历每个相关文档:

  • 获取图片的URL。

  • 使用`requests.get()`方法获取图片的内容。

  • 将图片内容写入到以数字命名的文件中(保存在`img`文件夹下)。

  • 打印相关文档的其他信息。

  1. 最后,完成了对相关文档图片的下载操作。

完整代码如下:

python 复制代码
import requests
from pprint import pprint
# 确定请求链接
url = 'https://wenku.baidu.com/gsearch/rec/pcviewdocrec'
# 请求参数
data ={
'docId':'d6b88ed8d0f34693daef5ef7ba0d4a7302766c99',
'query':'趣味答题 题目及答案',
'recPositions':''
}
headers = {
    'user-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/123.0.0.0 Safari/537.36'
}
response = requests.get(url = url, params = data, headers = headers)
num = 1
#pprint(response.json()['data']['relateDoc'])
for index in response.json()['data']['relateDoc']:
    pic = index['pic']
    img_content = requests.get(url =pic, headers= headers).content
    with open('img\\' + str(num) + '.jpg', mode='wb') as f:
        f.write(img_content)
    print(index)
    num += 1

运行效果如下:

相关推荐
yuanpan7 分钟前
使用Python创建本地Http服务实现与外部系统数据对接
开发语言·python·http
真*小白31 分钟前
Python语法学习篇(三)【py3】
开发语言·python·学习
不一样的故事1261 小时前
学习Python是一个循序渐进的过程,结合系统学习、持续实践和项目驱动,
开发语言·python·学习
@HNUSTer1 小时前
Python数据可视化科技图表绘制系列教程(七)
python·数据可视化·科技论文·专业制图·科研图表
shizidushu1 小时前
How to work with merged cells in Excel with `openpyxl` in Python?
python·microsoft·excel·openpyxl
郝学胜-神的一滴1 小时前
深入探索 Python 元组:从基础到高级应用
运维·服务器·开发语言·python·程序人生
技术程序猿华锋1 小时前
深度解码OpenAI的2025野心:Codex重生与GPT-5 APIKey获取调用示例
人工智能·vscode·python·gpt·深度学习·编辑器
xchenhao5 小时前
SciKit-Learn 全面分析分类任务 breast_cancer 数据集
python·机器学习·分类·数据集·scikit-learn·svm
独行soc8 小时前
2025年渗透测试面试题总结-66(题目+回答)
java·网络·python·安全·web安全·adb·渗透测试
Y学院11 小时前
Python 数据分析:从新手到高手的“摸鱼”指南
python·数据分析