二、爬虫-爬取肯德基在北京的店铺地址

1、算法框架解释

针对这个案例,现在对爬虫的基础使用做总结如下:

1、算法框架

(1)设定传入参数

~url:

当前整个页面的url:当前页面的网址

当前页面某个局部的url:打开检查

~data:需要爬取数据的关键字,即搜索内容

~param:需要获取哪些(类型)的数据,即数据类型

~headers:UA伪装

(2)得到get/post请求响应

根据"检查"结果进行判断:

get请求:response=requests.get(url=**,data=**,param=**,headers=**)

post请求:response=requests.post(url=**,data=**,param=**,headers=**)

(3)将得到的请求响应json化数据

此处以request.get/post请求数据为dict为例:

dict_obj=response.json() #在这里,你得到的其实是一个python对象,也就是python的字典

(4)持久化存储

~得到存储地址和修改权限

fp=open("目录",'w',encoding="UTF-8)

~将python对象编码成Json字符串>>格式转化>>python(dict)------>json

json.dump(返回的json数据>>dict_obj,fp=存储地址>>fp,ensure_ascii=False)

~结束

2、代码解析

python 复制代码
import requests
import json

"""

"""
if __name__ == "__main__":
    print("开始爬取")
    # (1)
    post_url = 'https://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=keyword'
    post_data = {
        'kw': '上海'
    }
    post_param = {
        "cname": "",
        "pid": "",
        "keyword": "上海",
        "pageIndex": "1",
        "pageSize": "10"
    }
    post_header = {
        "User-Agent": "Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) "
                      "Chrome/119.0.0.0 Mobile Safari/537.36"
    }
    # (2)
    response = requests.post(url=post_url, data=post_data, params=post_param, headers=post_header)
    # (3)
    dict_obj = response.json()
    # print(type(dict_obj))
    # (4)
    fp = open('./html/KenDeJi.json', 'w', encoding='UTF-8')
    json.dump(dict_obj, fp=fp, ensure_ascii=False)
    print("over")
相关推荐
callJJ42 分钟前
Spring Data Redis 两种编程模型详解:同步 vs 响应式
java·spring boot·redis·python·spring
小郑加油1 小时前
python学习Day12:pandas安装与实际运用
开发语言·python·学习
AC赳赳老秦1 小时前
投标合规提效:用 OpenClaw 实现标书 / 合同自动审核、关键词校验、格式优化,降低废标风险
开发语言·前端·python·eclipse·emacs·deepseek·openclaw
.柒宇.1 小时前
AI掘金头条项目-K8s部署实战教程
python·云原生·容器·kubernetes·fastapi
观北海1 小时前
从 Sim2Sim 到 Sim2Real:以 ONNX 为核心的机器人策略实机落地全指南
python·机器人
MATLAB代码顾问3 小时前
Python实现蜂群算法优化TSP问题
开发语言·python·算法
yaodong5183 小时前
不会Python也能数据分析:Gemini 3.1 Pro解决办公问题的SQL自动生成
python·sql·数据分析
BU摆烂会噶3 小时前
【LangGraph】持久化实现的三大能力——时间旅行
数据库·人工智能·python·postgresql·langchain
消失的旧时光-19434 小时前
统一并发模型:线程、Reactor、协程本质是一件事(从线程到协程 · 第6篇·终章)
java·python·算法
zhaoyong2226 小时前
MySQL 存储过程中字符集与排序规则不匹配导致查询性能下降的解决方案
jvm·数据库·python