get请求(豆瓣电影前五页爬取)

前提:

第一页url

https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&start=0&limit=20

第二页url

https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&start=20&limit=20

第三页url

https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&start=40&limit=20

观察得出每页的url中得start发生了变化


(一)获取的页数

    start_page = int(input("请输入起始的页码:"))
    end_page = int(input("请输入结束的页码:"))
    for page in range(start_page, end_page + 1):
        print(page)
  • python基础知道range()左闭右开

(二)每一页的请求对象的定制

def create_request(page):
    base_url = ("https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&")

    data = {
        'start': (page - 1) * 20,
        'limit': 20
    }

    # start = 60 & limit = 20  获得&符号
    data = urllib.parse.urlencode(data)

    url = base_url + data

    # print(url)

    headers = {
        "user-agent":
            "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/129.0.0.0 Safari/537.36"
    }

    request = urllib.request.Request(url=url, headers=headers)

    return request

需要拼接url

    base_url = "https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&"

    data = {
        'start': (page - 1) * 20,
        'limit': 20
    }

    # start = 60 & limit = 20  获得&符号
    data = urllib.parse.urlencode(data)

    url = base_url + data

(三)获得响应数据

def get_content(request):
    response = urllib.request.urlopen(request)
    content = response.read().decode("utf-8")
    return content

(四) 下载数据

def down_load(page, content):
    with open('douban' + str(page) + '.json', 'w', encoding="utf-8") as fp:
        fp.write(content)

(五)完整代码

import urllib.parse
import urllib.request


#  每一页的请求对象的定制
def create_request(page):
    base_url = ("https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&")

    data = {
        'start': (page - 1) * 20,
        'limit': 20
    }

    # start = 60 & limit = 20  获得&符号
    data = urllib.parse.urlencode(data)

    url = base_url + data

    # print(url)

    headers = {
        "user-agent":
            "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/129.0.0.0 Safari/537.36"
    }

    request = urllib.request.Request(url=url, headers=headers)

    return request


#  获得响应数据
def get_content(request):
    response = urllib.request.urlopen(request)
    content = response.read().decode("utf-8")
    return content


#  下载数据
def down_load(page, content):
    with open('douban' + str(page) + '.json', 'w', encoding="utf-8") as fp:
        fp.write(content)


if __name__ == '__main__':
    start_page = int(input("请输入起始的页码:"))
    end_page = int(input("请输入结束的页码:"))
    for page in range(start_page, end_page + 1):
        print(page)
        #  每一页的请求对象的定制
        request = create_request(page)
        #  获得响应数据
        content = get_content(request)
        #  下载数据
        down_load(page, content)

(六)结果


努力中。。。

相关推荐
codists14 分钟前
《使用Gin框架构建分布式应用》阅读笔记:p212-p233
笔记·golang·gin·编程人·codists·gin框架
Nepethens20 分钟前
【OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments】阅读笔记
笔记·3d
小c君tt35 分钟前
MFC文件管理-学习笔记
笔记·学习·mfc
白狐欧莱雅1 小时前
使用Python中的DrissonPage库爬取小说网站并保存章节内容(bqg)
经验分享·笔记·python·自动化·drissonpage
呵呵哒( ̄▽ ̄)"2 小时前
尚硅谷-react教程-求和案例-@redux-devtools/extension 开发者工具使用-笔记
javascript·笔记·react.js
Stardep2 小时前
算法2—八大常用排序算法(下)
c语言·数据结构·笔记·算法·排序算法·1024程序员节
清酒伴风(面试准备中......)2 小时前
开发流程初学者指南——项目管理
笔记·项目管理·开发流程
霍格沃兹测试开发学社测试人社区3 小时前
软件测试学习笔记丨SeleniumPO模式
软件测试·笔记·测试开发·学习
linly12194 小时前
R学习笔记-单因素重复测量方差分析
笔记·学习
杜若南星4 小时前
保研考研机试攻略:python笔记(2)
数据结构·经验分享·笔记·python·考研·算法