15分钟学 Python 第41天:Python 爬虫入门(六)第二篇

Day41:Python爬取猫眼电影网站的电影信息

1. 项目背景

在本项目中,我们将使用 Python 爬虫技术从猫眼电影网站抓取电影信息。猫眼电影是一个知名的电影信息平台,提供了丰富的电影相关数据。通过这个练习,您将深入学习如何抓取动态网站的数据,包括发送请求、解析 JSON 数据、处理分页等基本技术。

2. 项目目标

  • 爬取猫眼电影网站的电影信息,包括电影名称、评分、票房、上映时间等。
  • 将抓取的数据保存为CSV文件,便于后续分析与使用。

3. 核心工具

  • Python 3.x :编程语言环境。
  • requests :用于发送 HTTP 请求。
  • json :用于解析 JSON 数据。
  • pandas :用于数据存储和处理。
  • BeautifulSoup :用于解析 HTML 文档(如需处理 HTML 内容)。

4. 环境准备

确保您的环境中安装了以下库。在终端中运行以下命令:

bash 复制代码
pip install requests pandas beautifulsoup4

5. 数据抓取流程

5.1 确定目标网址和接口

我们要爬取的猫眼电影数据源是一个 API 接口,可以通过特定的 GET 请求获取数据。猫眼的电影数据接口如下:

复制代码
https://maoyan.com/board/4

5.2 发送请求

使用 requests 库向网页发送请求,获取网页内容。

5.3 解析JSON数据

使用 json 库解析获取的 JSON 数据。

5.4 提取电影信息

从解析的内容中提取所需的电影信息。

5.5 处理分页

处理多页数据,确保提取到所有电影信息。

5.6 数据存储

将提取到的数据存储为 CSV 文件。

5.7 运行流程图

开始 发送请求到猫眼 获取JSON内容 解析JSON数据 提取电影信息 处理分页 存储数据到CSV 结束

6. 示例代码

以下是完整的代码示例,分为几个功能部分以便更好理解。

6.1 导入必要的库

python 复制代码
import requests
import pandas as pd
import json
import time

6.2 发送请求并获取页面内容

python 复制代码
def fetch_movies(page):
    url = f'https://maoyan.com/board/4?offset={page * 10}'
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36'
    }
    response = requests.get(url, headers=headers)
    if response.status_code == 200:
        return response.text
    else:
        print("请求失败", response.status_code)
        return None

6.3 解析HTML并提取信息

python 复制代码
def parse_movies(html):
    movies = []
    soup = BeautifulSoup(html, 'html.parser')
    for item in soup.find_all('div', class_='movie-item-info'):
        title = item.find('p', class_='name').text.strip()
        star = item.find('p', class_='star').text.strip()
        score = item.find('p', class_='score').text.strip()
        release_time = item.find('p', class_='releaese').text.strip().split(':')[-1]
        movies.append({
            'Title': title,
            'Star': star,
            'Score': score,
            'Release Time': release_time
        })
    return movies

6.4 存储数据到CSV

python 复制代码
def save_to_csv(movies, filename='maoyan_movies.csv'):
    df = pd.DataFrame(movies)
    df.to_csv(filename, index=False, encoding='utf-8-sig')
    print(f"数据已保存到 {filename}")

6.5 主程序

python 复制代码
def main():
    all_movies = []
    for page in range(10):  # 爬取前 10 页数据
        html = fetch_movies(page)
        if html:
            movies = parse_movies(html)
            all_movies.extend(movies)
            time.sleep(2)  # 添加延迟,避免请求过快
    save_to_csv(all_movies)

if __name__ == '__main__':
    main()

7. 数据分析与检查

运行完毕后,我们可以使用 pandas 读取 CSV 文件并检查数据:

python 复制代码
def load_and_check_csv(filename='maoyan_movies.csv'):
    df = pd.read_csv(filename)
    print(df.head())
    print(f"总电影数: {len(df)}")

load_and_check_csv()

8. 样例输出

执行后,输出的 maoyan_movies.csv 文件中将包含如下示例数据:

Title Star Score Release Time
你好,李焕英 张小斐,贾玲 9.6 2021-02-12
你的婚礼 祝绪丹,陈飞宇 9.2 2021-02-14
夺冠 巩俐,黄渤 9.0 2020-12-02

9. 注意事项

  1. 反爬虫机制:猫眼可能会使用反爬虫机制,建议在请求之间加上延迟,模拟人类访问。
  2. 合法合规:请遵循猫眼的使用协议,确保抓取信息不违反网站政策。
  3. 数据质量:抓取的数据质量可能会受到影响,需要进行数据清洗和校验。

10. 总结

通过本项目,您学习了如何使用 Python 爬虫技术从猫眼电影网站中抓取电影信息。掌握了数据获取、解析和存储的基本流程。接下来,可以尝试改进程序,例如:抓取更详细的电影信息,尝试其他页面或增加异常处理等,以深入理解 Python 爬虫的应用潜力。



怎么样今天的内容还满意吗?再次感谢观众老爷的观看。
最后,祝您早日实现财务自由,还请给个赞,谢谢!

相关推荐
檐下翻书1731 小时前
产品开发跨职能流程图在线生成工具
大数据·人工智能·架构·流程图·论文笔记
TTGGGFF1 小时前
Supertonic 部署与使用全流程保姆级指南(附已部署镜像)
开发语言·python
杜子不疼.1 小时前
计算机视觉热门模型手册:Faster R-CNN / YOLO / SAM 技术原理 + 应用场景对比
人工智能·计算机视觉·r语言·cnn
木木木一1 小时前
Rust学习记录--C7 Package, Crate, Module
开发语言·学习·rust
love530love1 小时前
升级到 ComfyUI Desktop v0.7.0 版本后启动日志报 KeyError: ‘tensorrt‘ 错误解决方案
开发语言·windows·python·pycharm·virtualenv·comfyui·comfyui desktop
腾视科技2 小时前
腾视科技TS-SG-SM7系列AI算力模组:32TOPS算力引擎,开启边缘智能新纪元
人工智能·科技
Evand J2 小时前
【MATLAB例程】【空地协同】UAV辅助的UGV协同定位,无人机辅助地面无人车定位,带滤波,附MATLAB代码下载链接
开发语言·matlab·无人机·无人车·uav·协同定位·ugv
chao1898442 小时前
基于MATLAB实现多变量高斯过程回归(GPR)
开发语言·matlab·回归
极新2 小时前
深势科技生命科学高级业务架构师孟月:AI4S 赋能生命科学研发,数智化平台的实践与落地 | 2025极新AIGC峰会演讲实录
人工智能
落羽凉笙7 小时前
Python学习笔记(3)|数据类型、变量与运算符:夯实基础,从入门到避坑(附图解+代码)
笔记·python·学习