Python爬虫实战:抓取百度15天天气预报数据

🌐 编程基础第一期《9-30》--使用python中的第三方模块requests,和三个内置模块(re、json、pprint),实现百度地图的近15天天气信息抓取

记得安装

py 复制代码
pip install requests

📑 项目介绍

网络爬虫是Python最受欢迎的应用场景之一,通过爬虫技术,我们可以自动获取互联网上的各种数据资源。本文将带您实现一个简易爬虫,抓取百度地图的15天天气预报数据,这是一个非常实用的入门级爬虫项目。

🔍 爬虫实现思路

爬虫开发的核心步骤通常包括:网页分析、构造请求、数据提取和数据处理。下面我们将按照这个流程来实现我们的天气数据爬虫。

1. 网页结构分析

首先,我们需要分析目标网页的结构,找出我们需要的数据在哪里。

步骤一:访问目标页面

步骤二:查看页面内容

步骤三:打开开发者工具

进入浏览器控制台,可以按F12,或者鼠标右键 ---》检查

步骤四:定位数据元素

这个案例是需要获取天气的【日期、温度、天气】,这三个字段

如果是直接搜索相应的数据的话,是搜不到的,而且有点乱【Ctrl+F:搜索】,所以就用最笨的方法查看数据了,博主也是很快定位到了数据【15_day_forecast】

通过分析,我们发现天气数据是通过JavaScript动态加载的,数据存储在window.tplData变量中,具体是在15_day_forecast对象里。这意味着我们需要使用正则表达式从页面源码中提取这部分数据。

2. 获取请求参数

为了模拟浏览器发送请求,我们需要获取完整的请求参数,包括headers、cookies等。

使用工具转换请求格式

我们可以使用curlconverter.com工具,将浏览器复制的curl命令转换为Python代码:

这个工具可以帮助我们快速生成请求所需的cookies、headers和params等参数,大大简化了爬虫开发过程。

3. 代码实现

下面是完整的Python爬虫代码实现:

python 复制代码
import requests
import re
import json
from pprint import pprint

cookies = {
    'BAIDUID': 'D9390E952557E33F7CCC1A0109B7FA36:FG=1',
    'PSTM': '1724329650',
    'BIDUPSID': '32FE4B5E017DB09C400649766FC53D1B',
    'H_WISE_SIDS_BFESS': '60360_60621_60630_60665_60677',
    'BAIDUID_BFESS': 'D9390E952557E33F7CCC1A0109B7FA36:FG=1',
    'ZFY': 'G4IF74JdDWkiPzA7wsun:A9:AdrfYQK3wASfOCR3zneJ0:C',
    '__bid_n': '196e65bedde90245f15fbf',
    'H_WISE_SIDS': '62325_62967_63195_63241_63247_63266',
    'BDRCVFR[VXHUG3ZuJnT]': 'I67x6TjHwwYf0',
    'H_PS_PSSID': '61672_62325_62967_63148_63195_63211_63241_63247_63255_63266_63325_63366_63389_63380_63186_63395_63392_63390_63403',
    'delPer': '0',
    'PSINO': '1',
    'BDORZ': 'FFFB88E999055A3F8A630C64834BD6D0',
    'BA_HECTOR': '242lah0h85202k00202lal8h0k0ga61k3b6p924',
    'Hm_lvt_3535ee208b02ecdf4b2576fd444e8473': '1748343601',
    'Hm_lpvt_3535ee208b02ecdf4b2576fd444e8473': '1748343601',
    'HMACCOUNT': 'BF9680BBBCADEAE7',
}

headers = {
    'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.7',
    'accept-language': 'zh-CN,zh;q=0.9',
    'cache-control': 'no-cache',
    'pragma': 'no-cache',
    'priority': 'u=0, i',
    'referer': 'https://www.baidu.com/link?url=ajB3uWQlmNXyVidQRV-1nepXkS-ZUJDTJP3_HkueruWRBti13-iGBZJC1qMnR8pVgkLXHUxRWG8iv9tlJZFuVD0UqvTN1KpXcH5Sjltgq93cArc4Ocpl5irtWM2zRTYi0nVOHUeSWeV3ArpliNJvgErF2AaOpuWN6Jzb_yPJd3_DDH4uDBSFAENIXFV98SgaWmQyD7eE7wSJtPaZK-Y_5a&wd=&eqid=e24cffc50001782a0000000368359b29',
    'sec-ch-ua': '"Chromium";v="136", "Google Chrome";v="136", "Not.A/Brand";v="99"',
    'sec-ch-ua-mobile': '?0',
    'sec-ch-ua-platform': '"Windows"',
    'sec-fetch-dest': 'document',
    'sec-fetch-mode': 'navigate',
    'sec-fetch-site': 'same-site',
    'sec-fetch-user': '?1',
    'upgrade-insecure-requests': '1',
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/136.0.0.0 Safari/537.36',
    # 'cookie': 'BAIDUID=D9390E952557E33F7CCC1A0109B7FA36:FG=1; PSTM=1724329650; BIDUPSID=32FE4B5E017DB09C400649766FC53D1B; H_WISE_SIDS_BFESS=60360_60621_60630_60665_60677; BAIDUID_BFESS=D9390E952557E33F7CCC1A0109B7FA36:FG=1; ZFY=G4IF74JdDWkiPzA7wsun:A9:AdrfYQK3wASfOCR3zneJ0:C; __bid_n=196e65bedde90245f15fbf; H_WISE_SIDS=62325_62967_63195_63241_63247_63266; BDRCVFR[VXHUG3ZuJnT]=I67x6TjHwwYf0; H_PS_PSSID=61672_62325_62967_63148_63195_63211_63241_63247_63255_63266_63325_63366_63389_63380_63186_63395_63392_63390_63403; delPer=0; PSINO=1; BDORZ=FFFB88E999055A3F8A630C64834BD6D0; BA_HECTOR=242lah0h85202k00202lal8h0k0ga61k3b6p924; Hm_lvt_3535ee208b02ecdf4b2576fd444e8473=1748343601; Hm_lpvt_3535ee208b02ecdf4b2576fd444e8473=1748343601; HMACCOUNT=BF9680BBBCADEAE7',
}

params = {
    'query': '广东深圳天气',
    'srcid': '4982',
    'forecast': 'long_day_forecast',
}

response = requests.get('https://weathernew.pae.baidu.com/weathernew/pc', params=params, cookies=cookies,
                        headers=headers)
# 获取天气数据
tplData = re.findall(r'window.tplData = (.*?);', response.text)[0]
# 这个数据是`str`类型,所以需要转换成json数据类型,然后再获取数据
tpl_15_day_forecast = json.loads(tplData)['15_day_forecast']['info']
# 定义一个空列表
recently_data = []
for tpl in tpl_15_day_forecast:
    date = tpl['date']
    temperature = tpl['temperature_night'] + ' ~ ' + tpl['temperature_day'] + '°C'
    weather = tpl['weather_night']
    recently_data.append({"date": date, "temperature": temperature, "weather": weather})

# 整齐输出
pprint(recently_data)

4. 运行效果

执行上述代码后,我们可以得到格式化的15天天气预报数据:

🔎 代码解析与知识点

这个简单的爬虫项目涵盖了多个Python爬虫开发的关键知识点,下面我们来详细分析:

1. HTTP请求与网络通信

  • requests模块应用:使用Python最流行的HTTP客户端库发送GET请求
  • 请求参数构造:通过params、cookies和headers参数模拟浏览器行为
  • 防反爬策略:通过设置User-Agent、Referer等头信息,避免被目标网站识别为爬虫
python 复制代码
# 发送HTTP GET请求示例
response = requests.get('https://weathernew.pae.baidu.com/weathernew/pc', 
                        params=params, 
                        cookies=cookies,
                        headers=headers)

2. 正则表达式数据提取

  • re模块应用:使用Python内置的正则表达式模块提取特定模式的文本
  • 贪婪与非贪婪匹配 :使用.*?进行非贪婪匹配,精确定位目标数据
  • 捕获组 :使用括号()创建捕获组,提取匹配的内容
python 复制代码
# 正则表达式提取示例
tplData = re.findall(r'window.tplData = (.*?);', response.text)[0]

3. JSON数据处理

  • json模块应用:使用Python内置的JSON模块解析字符串为Python对象
  • 数据序列化与反序列化:将字符串转换为Python对象(反序列化)
  • 复杂数据结构访问:通过键名访问嵌套的JSON数据
python 复制代码
# JSON解析示例
tpl_15_day_forecast = json.loads(tplData)['15_day_forecast']['info']

4. 数据结构与处理

  • 列表操作:创建空列表并使用append方法添加元素
  • 字典操作:创建包含多个键值对的字典对象
  • 循环遍历:使用for循环遍历列表中的每个元素
  • 字符串拼接 :使用+运算符连接多个字符串
python 复制代码
# 数据处理示例
recently_data = []
for tpl in tpl_15_day_forecast:
    date = tpl['date']
    temperature = tpl['temperature_night'] + ' ~ ' + tpl['temperature_day'] + '°C'
    weather = tpl['weather_night']
    recently_data.append({"date": date, "temperature": temperature, "weather": weather})

5. 格式化输出

  • pprint模块应用:使用Python的美化打印模块,以更易读的方式显示复杂数据结构
  • 数据可视化:将提取的数据以结构化、易读的方式展示
python 复制代码
# 格式化输出示例
pprint(recently_data)

📚 学习要点总结

  1. 网络爬虫基础:HTTP请求、响应处理、模拟浏览器行为
  2. 数据提取技术:正则表达式、JSON解析
  3. Python模块应用:requests、re、json、pprint
  4. 网页分析方法:使用开发者工具定位数据元素
  5. 数据处理技巧:列表、字典操作,数据结构转换
  6. 爬虫伦理与合规:遵守网站robots.txt规则,合理控制请求频率

通过这个项目,您可以掌握Python爬虫开发的基本流程和技术要点,为进一步学习更复杂的爬虫项目打下坚实基础。

今日分享语录

与其攀比他人,不如攀比昨天的自己

相关推荐
Dxy12393102161 小时前
DrissionPage ChromiumPage模式:浏览器自动化的高效利器
运维·python·自动化·drissionpage
AI风老师1 小时前
1、Pytorch介绍与安装
人工智能·pytorch·python
亿牛云爬虫专家1 小时前
视觉分析开发范例:Puppeteer截图+计算机视觉动态定位
人工智能·爬虫·计算机视觉·爬虫代理·短视频·代理ip·小红书
立秋67892 小时前
用 Python 模拟下雨效果
开发语言·python·pygame
xiaohanbao092 小时前
day40 python图像数据与显存
python·深度学习·学习·算法·机器学习·图像
点云SLAM2 小时前
PyTorch中 torch.utils.data.DataLoader 的详细解析和读取点云数据示例
人工智能·pytorch·python·算法·计算机视觉·dataloader·3d深度学习
KENYCHEN奉孝2 小时前
Weather app using Django - Python
后端·python·django
安迪小宝2 小时前
11高可用与容错
python·celery
丁值心2 小时前
5.29打卡
开发语言·人工智能·python·机器学习·支持向量机
HakunamatataWang2 小时前
python 包管理工具uv
python·uv