get请求(豆瓣电影前五页爬取)

前提:

第一页url

https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&start=0&limit=20

第二页url

https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&start=20&limit=20

第三页url

https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&start=40&limit=20

观察得出每页的url中得start发生了变化


(一)获取的页数

    start_page = int(input("请输入起始的页码:"))
    end_page = int(input("请输入结束的页码:"))
    for page in range(start_page, end_page + 1):
        print(page)
  • python基础知道range()左闭右开

(二)每一页的请求对象的定制

def create_request(page):
    base_url = ("https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&")

    data = {
        'start': (page - 1) * 20,
        'limit': 20
    }

    # start = 60 & limit = 20  获得&符号
    data = urllib.parse.urlencode(data)

    url = base_url + data

    # print(url)

    headers = {
        "user-agent":
            "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/129.0.0.0 Safari/537.36"
    }

    request = urllib.request.Request(url=url, headers=headers)

    return request

需要拼接url

    base_url = "https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&"

    data = {
        'start': (page - 1) * 20,
        'limit': 20
    }

    # start = 60 & limit = 20  获得&符号
    data = urllib.parse.urlencode(data)

    url = base_url + data

(三)获得响应数据

def get_content(request):
    response = urllib.request.urlopen(request)
    content = response.read().decode("utf-8")
    return content

(四) 下载数据

def down_load(page, content):
    with open('douban' + str(page) + '.json', 'w', encoding="utf-8") as fp:
        fp.write(content)

(五)完整代码

import urllib.parse
import urllib.request


#  每一页的请求对象的定制
def create_request(page):
    base_url = ("https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&")

    data = {
        'start': (page - 1) * 20,
        'limit': 20
    }

    # start = 60 & limit = 20  获得&符号
    data = urllib.parse.urlencode(data)

    url = base_url + data

    # print(url)

    headers = {
        "user-agent":
            "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/129.0.0.0 Safari/537.36"
    }

    request = urllib.request.Request(url=url, headers=headers)

    return request


#  获得响应数据
def get_content(request):
    response = urllib.request.urlopen(request)
    content = response.read().decode("utf-8")
    return content


#  下载数据
def down_load(page, content):
    with open('douban' + str(page) + '.json', 'w', encoding="utf-8") as fp:
        fp.write(content)


if __name__ == '__main__':
    start_page = int(input("请输入起始的页码:"))
    end_page = int(input("请输入结束的页码:"))
    for page in range(start_page, end_page + 1):
        print(page)
        #  每一页的请求对象的定制
        request = create_request(page)
        #  获得响应数据
        content = get_content(request)
        #  下载数据
        down_load(page, content)

(六)结果


努力中。。。

相关推荐
安冬的码畜日常21 分钟前
【Vim Masterclass 笔记24】S10L43 + L44:同步练习10 —— 基于 Vim 缓冲区的各类基础操作练习(含点评课)
笔记·vim·自学笔记·vim同步练习·vim缓冲区·vim buffer·vim缓冲区练习
一只码代码的章鱼31 分钟前
粒子群算法 笔记 数学建模
笔记·算法·数学建模·逻辑回归
圆圆滚滚小企鹅。36 分钟前
刷题笔记 贪心算法-1 贪心算法理论基础
笔记·算法·leetcode·贪心算法
杨过姑父1 小时前
ES6 简单练习笔记--变量申明
前端·笔记·es6
l1x1n01 小时前
No.37 笔记 | Python面向对象编程学习笔记:探索代码世界的奇妙之旅
笔记·python·学习
路上阡陌1 小时前
Java学习笔记(二十四)
java·笔记·学习
束照2 小时前
noteboolm 使用笔记
笔记·notebooklm
安冬的码畜日常3 小时前
【Vim Masterclass 笔记23】第十章:Vim 缓冲区与多窗口的用法概述 + S10L42:Vim 缓冲区的用法详解与多文件编辑
笔记·vim·buffer·vim缓冲区·vim buffer·vim多文件编辑·vim多文件
初九之潜龙勿用3 小时前
我的创作纪念日,纪念我的第512天
笔记
雾里看山5 小时前
【MySQL】 库的操作
android·数据库·笔记·mysql