get请求(豆瓣电影前五页爬取)

前提:

第一页url

https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&start=0&limit=20

第二页url

https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&start=20&limit=20

第三页url

https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&start=40&limit=20

观察得出每页的url中得start发生了变化


(一)获取的页数

复制代码
    start_page = int(input("请输入起始的页码:"))
    end_page = int(input("请输入结束的页码:"))
    for page in range(start_page, end_page + 1):
        print(page)
  • python基础知道range()左闭右开

(二)每一页的请求对象的定制

复制代码
def create_request(page):
    base_url = ("https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&")

    data = {
        'start': (page - 1) * 20,
        'limit': 20
    }

    # start = 60 & limit = 20  获得&符号
    data = urllib.parse.urlencode(data)

    url = base_url + data

    # print(url)

    headers = {
        "user-agent":
            "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/129.0.0.0 Safari/537.36"
    }

    request = urllib.request.Request(url=url, headers=headers)

    return request

需要拼接url

复制代码
    base_url = "https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&"

    data = {
        'start': (page - 1) * 20,
        'limit': 20
    }

    # start = 60 & limit = 20  获得&符号
    data = urllib.parse.urlencode(data)

    url = base_url + data

(三)获得响应数据

复制代码
def get_content(request):
    response = urllib.request.urlopen(request)
    content = response.read().decode("utf-8")
    return content

(四) 下载数据

复制代码
def down_load(page, content):
    with open('douban' + str(page) + '.json', 'w', encoding="utf-8") as fp:
        fp.write(content)

(五)完整代码

复制代码
import urllib.parse
import urllib.request


#  每一页的请求对象的定制
def create_request(page):
    base_url = ("https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&")

    data = {
        'start': (page - 1) * 20,
        'limit': 20
    }

    # start = 60 & limit = 20  获得&符号
    data = urllib.parse.urlencode(data)

    url = base_url + data

    # print(url)

    headers = {
        "user-agent":
            "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/129.0.0.0 Safari/537.36"
    }

    request = urllib.request.Request(url=url, headers=headers)

    return request


#  获得响应数据
def get_content(request):
    response = urllib.request.urlopen(request)
    content = response.read().decode("utf-8")
    return content


#  下载数据
def down_load(page, content):
    with open('douban' + str(page) + '.json', 'w', encoding="utf-8") as fp:
        fp.write(content)


if __name__ == '__main__':
    start_page = int(input("请输入起始的页码:"))
    end_page = int(input("请输入结束的页码:"))
    for page in range(start_page, end_page + 1):
        print(page)
        #  每一页的请求对象的定制
        request = create_request(page)
        #  获得响应数据
        content = get_content(request)
        #  下载数据
        down_load(page, content)

(六)结果


努力中。。。

相关推荐
FFF团团员9099 小时前
树莓派学习笔记3:LED和Button
笔记·学习
碧海潮生_CC9 小时前
【CUDA笔记】04 CUDA 归约, 原子操作,Warp 交换
笔记·cuda
摇滚侠10 小时前
2025最新 SpringCloud 教程,从单体到集群架构,笔记02
笔记·spring cloud·架构
风123456789~10 小时前
【OceanBase专栏】OB背景知识
数据库·笔记·oceanbase
智者知已应修善业12 小时前
【51单片机普通延时奇偶灯切换】2023-4-4
c语言·经验分享·笔记·嵌入式硬件·51单片机
wdfk_prog12 小时前
[Linux]学习笔记系列 -- [block]bio
linux·笔记·学习
卡提西亚15 小时前
C++笔记-34-map/multimap容器
开发语言·c++·笔记
一个平凡而乐于分享的小比特17 小时前
UCOSIII笔记(十三)CPU利用率及栈检测统计与同时等待多个内核对象
笔记·ucosiii
摇滚侠18 小时前
2025最新 SpringCloud 教程,编写微服务 API,笔记08
笔记·spring cloud·微服务
我的老子姓彭20 小时前
N32WB蓝牙芯片开发
笔记