get请求(豆瓣电影前五页爬取)

前提:

第一页url

https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&start=0&limit=20

第二页url

https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&start=20&limit=20

第三页url

https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&start=40&limit=20

观察得出每页的url中得start发生了变化


(一)获取的页数

复制代码
    start_page = int(input("请输入起始的页码:"))
    end_page = int(input("请输入结束的页码:"))
    for page in range(start_page, end_page + 1):
        print(page)
  • python基础知道range()左闭右开

(二)每一页的请求对象的定制

复制代码
def create_request(page):
    base_url = ("https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&")

    data = {
        'start': (page - 1) * 20,
        'limit': 20
    }

    # start = 60 & limit = 20  获得&符号
    data = urllib.parse.urlencode(data)

    url = base_url + data

    # print(url)

    headers = {
        "user-agent":
            "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/129.0.0.0 Safari/537.36"
    }

    request = urllib.request.Request(url=url, headers=headers)

    return request

需要拼接url

复制代码
    base_url = "https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&"

    data = {
        'start': (page - 1) * 20,
        'limit': 20
    }

    # start = 60 & limit = 20  获得&符号
    data = urllib.parse.urlencode(data)

    url = base_url + data

(三)获得响应数据

复制代码
def get_content(request):
    response = urllib.request.urlopen(request)
    content = response.read().decode("utf-8")
    return content

(四) 下载数据

复制代码
def down_load(page, content):
    with open('douban' + str(page) + '.json', 'w', encoding="utf-8") as fp:
        fp.write(content)

(五)完整代码

复制代码
import urllib.parse
import urllib.request


#  每一页的请求对象的定制
def create_request(page):
    base_url = ("https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&")

    data = {
        'start': (page - 1) * 20,
        'limit': 20
    }

    # start = 60 & limit = 20  获得&符号
    data = urllib.parse.urlencode(data)

    url = base_url + data

    # print(url)

    headers = {
        "user-agent":
            "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/129.0.0.0 Safari/537.36"
    }

    request = urllib.request.Request(url=url, headers=headers)

    return request


#  获得响应数据
def get_content(request):
    response = urllib.request.urlopen(request)
    content = response.read().decode("utf-8")
    return content


#  下载数据
def down_load(page, content):
    with open('douban' + str(page) + '.json', 'w', encoding="utf-8") as fp:
        fp.write(content)


if __name__ == '__main__':
    start_page = int(input("请输入起始的页码:"))
    end_page = int(input("请输入结束的页码:"))
    for page in range(start_page, end_page + 1):
        print(page)
        #  每一页的请求对象的定制
        request = create_request(page)
        #  获得响应数据
        content = get_content(request)
        #  下载数据
        down_load(page, content)

(六)结果


努力中。。。

相关推荐
天天开心a1 小时前
OSPF基础部分知识点
网络·笔记·学习·智能路由器·hcip
致***锌4 小时前
期权平仓后权利金去哪了?
笔记
LiuYaoheng4 小时前
【Android】View 的基础知识
android·java·笔记·学习
星梦清河4 小时前
宋红康 JVM 笔记 Day14|垃圾回收概述
jvm·笔记
Suckerbin5 小时前
Basic Pentesting: 1靶场渗透
笔记·安全·web安全·网络安全
草莓熊Lotso5 小时前
PyCharm 从入门到高效:安装教程 + 快捷键速查表
开发语言·ide·经验分享·笔记·其他
一位搞嵌入式的 genius5 小时前
ES6 核心特性详解:从变量声明到函数参数优化
前端·笔记·学习
序属秋秋秋6 小时前
《C++进阶之STL》【set/map 使用介绍】
开发语言·c++·笔记·leetcode·stl·set·map
肥肠可耐的西西公主6 小时前
后端(fastAPI)学习笔记(CLASS 1):扩展基础
笔记·学习·fastapi
程序员Xu14 小时前
【LeetCode热题100道笔记】二叉树的右视图
笔记·算法·leetcode