打卡学习Python爬虫第五天|使用Xpath爬取豆瓣电影评分

**思路:**使用Xpath爬取豆瓣即将上映的电影评分,首先获取要爬取页面的url,查看页面源代码是否有我们想要的数据,如果有,直接获取HTML文件后解析HTML内容就能提取出我们想要的数据。如果没有则需要用到浏览器抓包工具,二次才能爬取到。其次观察HTML代码的标签结构,通过层级关系找到含有我们想要的数据的标签,提取出数据。最后保存我们的数据。

1、获取url

这里我们可以看到,有的电影是暂时没有评分的,等一下爬出的数据要做处理。

2、观察页面源代码

数据存放在同一级的多个li标签中,我们只需要利用相对查找,循环遍历就能找到所有的libi'a

3、快速获取Xpath的方法

找到想要的标签-->右键-->复制-->复制完整的Xpath

4、完整代码和结果

python 复制代码
# 获取页面源代码
# 提取和解析数据
import requests
from lxml import etree
import csv

url = 'https://movie.douban.com/'
# headers每个人的不一样,要去看响应头
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'
}
response = requests.get(url,headers=headers)
# print(response.text)
html = etree.HTML(response.text)
movie_list = html.xpath('/html/body/div[3]/div[1]/div/div[2]/div[1]/div[2]/ul/li')
# 初始化一个列表来存储电影数据字典
movies_dict = []

# 提取数据
for movie in movie_list:
    title_elements = movie.xpath('./@data-title')  # ./相对路径
    if title_elements:  # 确保列表不为空
        name = title_elements[0]
    else:
        name = "暂无标题"

    score_elements = movie.xpath('./ul/li[3]/span[2]/text()')
    if score_elements:  # 确保列表不为空
        score = score_elements[0]
    else:
        score = "暂无评分"
    # print(name, score)
    movie_dict = {
        'name':name,
        'score':score
    }
    movies_dict.append(movie_dict)
f = open('movies.csv','w',encoding='utf-8',newline='')
writer = csv.DictWriter(f,fieldnames=['name','score'])
writer.writeheader()
for movie in movies_dict:
    writer.writerow(movie)
    f.flush()
print("结束!")
response.close()
相关推荐
那雨倾城2 分钟前
使用 OpenCV 将图像中标记特定颜色区域
人工智能·python·opencv·计算机视觉·视觉检测
LuckyTHP3 小时前
java 使用zxing生成条形码(可自定义文字位置、边框样式)
java·开发语言·python
mahuifa4 小时前
(7)python开发经验
python·qt·pyside6·开发经验
小Tomkk4 小时前
2025年PMP 学习十五 第10章 项目资源管理
学习·pmp·项目pmp
oceanweave5 小时前
【K8S学习之生命周期钩子】详细了解 postStart 和 preStop 生命周期钩子
学习·kubernetes
学地理的小胖砸5 小时前
【Python 操作 MySQL 数据库】
数据库·python·mysql
安迪小宝5 小时前
6 任务路由与负载均衡
运维·python·celery
Blossom.1185 小时前
使用Python实现简单的人工智能聊天机器人
开发语言·人工智能·python·低代码·数据挖掘·机器人·云计算
火龙谷6 小时前
【爬虫】DrissionPage-4
爬虫
lisw056 小时前
Python高级进阶:Vim与Vi使用指南
python·vim·excel