代码实例:Python 爬虫抓取与解析 JSON 数据

在现代网络爬虫开发中,JSON 数据格式因其简洁和易于解析的特性而被广泛使用。许多网站和 API 都提供 JSON 格式的响应数据,这使得爬取和解析 JSON 数据成为爬虫开发中的一个重要技能。本文将详细介绍如何使用 Python 爬虫抓取和解析 JSON 数据,包括基本概念、常用工具和完整的代码实例。

一、JSON 数据格式简介

JSON(JavaScript Object Notation)是一种轻量级的数据交换格式,易于阅读和编写,同时也易于机器解析和生成。JSON 数据通常以键值对的形式组织,支持以下几种数据类型:

  • 字符串:用双引号括起来的文本。

  • 数字:整数或浮点数。

  • 布尔值truefalse

  • 数组:用方括号括起来的有序数据集合。

  • 对象:用花括号括起来的键值对集合。

以下是一个简单的 JSON 示例:

复制代码
{
  "name": "John Doe",
  "age": 30,
  "is_student": false,
  "courses": ["Math", "Science", "History"],
  "address": {
    "street": "123 Main St",
    "city": "Anytown",
    "state": "CA"
  }
}

二、Python 爬虫抓取 JSON 数据

(一)使用 requests

requests 是 Python 中最常用的 HTTP 库之一,用于发送 HTTP 请求。它支持多种请求方法(如 GET、POST、PUT、DELETE 等),并且可以方便地处理 JSON 数据。

以下是一个使用 requests 库抓取 JSON 数据的示例:

复制代码
import requests

# 目标 URL
url = "https://api.example.com/data"

# 发送 GET 请求
response = requests.get(url)

# 检查请求是否成功
if response.status_code == 200:
    # 将响应内容解析为 JSON
    data = response.json()
    print(data)
else:
    print(f"请求失败,状态码:{response.status_code}")

(二)处理请求参数

在实际应用中,你可能需要向 API 传递参数,如查询字符串或请求体。requests 库允许你通过 paramsjson 参数方便地处理这些情况。

以下是一个示例,展示如何向 API 传递查询字符串和 JSON 请求体:

复制代码
import requests

# 目标 URL
url = "https://api.example.com/data"

# 查询字符串参数
params = {
    "key1": "value1",
    "key2": "value2"
}

# JSON 请求体
json_data = {
    "name": "John Doe",
    "age": 30
}

# 发送 POST 请求
response = requests.post(url, params=params, json=json_data)

# 检查请求是否成功
if response.status_code == 200:
    # 将响应内容解析为 JSON
    data = response.json()
    print(data)
else:
    print(f"请求失败,状态码:{response.status_code}")

三、解析 JSON 数据

(一)使用 json 模块

Python 的标准库中提供了 json 模块,用于解析和生成 JSON 数据。json.loads() 方法可以将 JSON 字符串解析为 Python 对象,而 json.dumps() 方法可以将 Python 对象转换为 JSON 字符串。

以下是一个解析 JSON 数据的示例:

复制代码
import json

# JSON 字符串
json_str = '''
{
  "name": "John Doe",
  "age": 30,
  "is_student": false,
  "courses": ["Math", "Science", "History"],
  "address": {
    "street": "123 Main St",
    "city": "Anytown",
    "state": "CA"
  }
}
'''

# 将 JSON 字符串解析为 Python 对象
data = json.loads(json_str)

# 访问解析后的数据
print("Name:", data["name"])
print("Age:", data["age"])
print("Courses:", data["courses"])
print("Address:", data["address"]["street"], data["address"]["city"], data["address"]["state"])

(二)处理嵌套数据

JSON 数据通常包含嵌套结构,如对象和数组。在 Python 中,嵌套的 JSON 数据会转换为嵌套的字典和列表。你可以通过多级索引访问嵌套数据。

以下是一个处理嵌套 JSON 数据的示例:

复制代码
import json

# JSON 字符串
json_str = '''
{
  "name": "John Doe",
  "age": 30,
  "is_student": false,
  "courses": ["Math", "Science", "History"],
  "address": {
    "street": "123 Main St",
    "city": "Anytown",
    "state": "CA"
  }
}
'''

# 将 JSON 字符串解析为 Python 对象
data = json.loads(json_str)

# 访问嵌套数据
print("Name:", data["name"])
print("Age:", data["age"])
print("Courses:", data["courses"])
print("Address:", data["address"]["street"], data["address"]["city"], data["address"]["state"])

四、完整代码实例

以下是一个完整的代码实例,展示如何使用 Python 爬虫抓取和解析 JSON 数据:

(一)抓取 JSON 数据

复制代码
import requests

# 目标 URL
url = "https://api.example.com/data"

# 发送 GET 请求
response = requests.get(url)

# 检查请求是否成功
if response.status_code == 200:
    # 将响应内容解析为 JSON
    data = response.json()
    print(data)
else:
    print(f"请求失败,状态码:{response.status_code}")

(二)解析 JSON 数据

复制代码
import json

# JSON 字符串
json_str = '''
{
  "name": "John Doe",
  "age": 30,
  "is_student": false,
  "courses": ["Math", "Science", "History"],
  "address": {
    "street": "123 Main St",
    "city": "Anytown",
    "state": "CA"
  }
}
'''

# 将 JSON 字符串解析为 Python 对象
data = json.loads(json_str)

# 访问解析后的数据
print("Name:", data["name"])
print("Age:", data["age"])
print("Courses:", data["courses"])
print("Address:", data["address"]["street"], data["address"]["city"], data["address"]["state"])

五、常见问题与解决方法

(一)请求失败

问题 :请求失败,返回非 200 状态码。 解决方法

  • 检查 URL 是否正确。

  • 检查请求参数是否正确。

  • 检查 API 是否需要认证(如 API Key)。

  • 检查网络连接是否正常。

(二)JSON 解析错误

问题 :解析 JSON 数据时出现错误。 解决方法

  • 确保响应内容是有效的 JSON 格式。

  • 检查 JSON 字符串是否符合 JSON 规范。

  • 使用 try-except 块捕获解析错误。

(三)数据访问错误

问题 :访问 JSON 数据时出现 KeyError 或 IndexError。 解决方法

  • 确保访问的键或索引存在于数据中。

  • 使用 get() 方法访问字典键,避免 KeyError。

  • 使用 try-except 块捕获访问错误。

六、最佳实践

(一)错误处理

在爬虫开发中,错误处理是必不可少的。使用 try-except 块捕获可能的错误,并记录错误信息,以便后续排查问题。

复制代码
import requests

# 目标 URL
url = "https://api.example.com/data"

try:
    # 发送 GET 请求
    response = requests.get(url)
    response.raise_for_status()  # 检查请求是否成功

    # 将响应内容解析为 JSON
    data = response.json()
    print(data)
except requests.exceptions.RequestException as e:
    print(f"请求失败: {e}")
except json.JSONDecodeError as e:
    print(f"JSON 解析失败: {e}")

(二)日志记录

在爬虫开发中,日志记录是非常重要的。使用 Python 的 logging 模块记录请求和解析过程中的信息,便于后续排查问题。

复制代码
import requests
import logging

# 配置日志
logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s - %(message)s')

# 目标 URL
url = "https://api.example.com/data"

try:
    # 发送 GET 请求
    response = requests.get(url)
    response.raise_for_status()  # 检查请求是否成功

    # 将

响应内容解析为 JSON data = response.json() logging.info("请求成功,数据如下:") logging.info(data) except requests.exceptions.RequestException as e: logging.error(f"请求失败: {e}") except json.JSONDecodeError as e: logging.error(f"JSON 解析失败: {e}")

复制代码
### (三)数据缓存

为了提高爬虫的效率,可以将抓取的数据缓存到本地文件或数据库中,避免重复请求。

```python
import requests
import json
import os

# 目标 URL
url = "https://api.example.com/data"

# 缓存文件路径
cache_file = "data.json"

# 检查缓存文件是否存在
if os.path.exists(cache_file):
    with open(cache_file, "r") as f:
        data = json.load(f)
    logging.info("从缓存文件加载数据")
else:
    try:
        # 发送 GET 请求
        response = requests.get(url)
        response.raise_for_status()  # 检查请求是否成功

        # 将响应内容解析为 JSON
        data = response.json()

        # 将数据缓存到文件
        with open(cache_file, "w") as f:
            json.dump(data, f)
        logging.info("请求成功,数据已缓存")
    except requests.exceptions.RequestException as e:
        logging.error(f"请求失败: {e}")
    except json.JSONDecodeError as e:
        logging.error(f"JSON 解析失败: {e}")

七、总结

通过本文的介绍,你应该已经掌握了如何使用 Python 爬虫抓取和解析 JSON 数据。通过 requests 库发送 HTTP 请求并获取 JSON 数据,再使用 json 模块解析数据,你可以轻松地处理各种 JSON 格式的数据。在实际开发中,注意错误处理、日志记录和数据缓存等最佳实践,可以提高爬虫的稳定性和效率。

相关推荐
程序员爱钓鱼3 小时前
Python编程实战 · 基础入门篇 | Python的版本与安装
后端·python
hmbbcsm3 小时前
练习python题目小记
python
ZhengEnCi4 小时前
CMD 与 Python 完全区别指南-小白必看的编程入门解惑宝典
windows·python
Hs_QY_FX4 小时前
逻辑回归实战:泰坦尼克号生存预测
python·逻辑回归
惜月_treasure5 小时前
LlamaIndex多模态RAG开发实现详解
开发语言·python·机器学习
扶尔魔ocy5 小时前
python 部署可离线使用的中文识别OCR(window)
python·中文识别·cnocr
一晌小贪欢5 小时前
Python爬虫第4课:XPath与lxml高级解析技术
开发语言·爬虫·python·网络爬虫·python爬虫·python3·python办公
虚行5 小时前
C#项目连接S7-PLCSIM Advanced读写操作
开发语言·python·c#
不太会写5 小时前
又开始了 小程序定制
vue.js·spring boot·python·小程序