haralyzer 半自动,一次性少量数据采集快捷方法

使用场景:半自动,一次性少量数据采集需求在工作中还是不少遇到的,无论使用模拟的方式,或者破解都不太划算。其实这种需求,使用半自动爬虫是最简单的。不需要考虑网站反爬虫的问题,因为你使用的就是真实的浏览器,不会通过代码来发起请求

  1. 从chrome获取har包
    首先打开浏览器的开发者工具,勾选上Perserve log复选框,如下图所示:

然后刷新页面。注意一定要先打开开发者工具再刷新页面,顺序不能搞反了。接下来,你就正常往下滚动页面或者点击翻页按钮,滚到你不想滚为止。此时开发者工具里面已经有很多数据包了。如下图所示:

在任何一个数据包上面右键,选择Save all as HAR with content。就会把当前页面的所有数据包全部合并到一个 har 文件里面,如下图所示:

备注:如果遇到需要来回跳转的页面,可以使用抓包工具获取har,这个自己搜吧

  1. 示例代码,只需要按提示修改相关变量和函数即可运行
python 复制代码
import json
import csv
import jsonpath
from haralyzer import HarParser
#功能: 解决一次性数据量不大的数据采集需求,通过chrome获取所有请求包,打包成har包,然后解析存储

# har包获取方法:
# 1、打开chrome的检查,
# 2:勾选Network中的Preserve log,
# 3:刷新当前网页,点击下一页或者滑动,直到自己需要的数据加载完,
# 4: 点击右上角的下载图标,或者是选择任意一个请求,右击,点击'Save all as HAR with content'

# 代码使用方法: 按照需要修改har_file_path, url_keyword, csv_title_title三个变量,以及解析函数parser_har, 其他都不需要动


def save_csv(title_list, data_list):
    '''
    保存数据到csv文件中
    '''
    data_list.insert(0, title_list)
    with open('result_csv.csv', 'w', encoding='utf-8-sig', newline='') as csvFile:
        writer = csv.writer(csvFile)
        # 写入多行用writerows
        writer.writerows(data_list)
    print('组合数据运行结束, 结果文件result_csv.csv位于当前目录下')

def read_har_file(har_file_path):
    '''
    读取指定路径的har文件
    '''
    har_parser = HarParser.from_file(har_file_path)
    data = har_parser.har_data
    entries = data['entries']
    for entry in entries:
        yield entry

def crawle_har_to_csv(har_file_path, url_keyword, csv_title_title):
    '''
    主启动函数
    '''
    all_result_list = []
    for entry in read_har_file(har_file_path):
        url = entry['request']['url']
        if url.find(url_keyword) > -1:
            print(url)
            body = entry['response']
            if 'text' in body['content']:
                content = body['content']['text']
                info = json.loads(content)
                if sub_result_list := parser_har(info):
                    all_result_list.extend(sub_result_list)
    save_csv(csv_title_title, all_result_list)

#需要修改
def parser_har(json_content):
    '''
    解析har中的相关数据,这个需要根据具体返回内容进行修改
    '''
    result_list = []
    data_list = jsonpath.jsonpath(json_content, '$.data.content.offerList.*')
    if data_list:
        for offer in data_list:
            result_list.append([offer['subject'], offer['price']])
        return result_list
    else:
        print('parser_har函数没有获取指定的data_list')
        return []

if __name__ == '__main__':
    #har包地址, 需修改
    har_file_path = r'C:\Users\men\Desktop\milishipin.1688.com.har'
    #择选的请求唯一关键词,用来筛选关键词, 需修改
    url_keyword = 'mtop.1688.shop.data.get/1.0'
    #csv文件中的title列表, 需修改
    csv_title_title = ['名称', '价格']

    crawle_har_to_csv(har_file_path, url_keyword, csv_title_title)
相关推荐
jedi-knight3 小时前
AGI时代下的青年教师与学术民主化
人工智能·python·agi
迷藏4943 小时前
**eBPF实战进阶:从零构建网络流量监控与过滤系统**在现代云原生架构中,**网络可观测性**和**安全隔离**已成为
java·网络·python·云原生·架构
迷藏4943 小时前
**发散创新:基于Solid协议的Web3.0去中心化身份认证系统实战解析**在Web3.
java·python·web3·去中心化·区块链
weixin_156241575764 小时前
基于YOLOv8深度学习花卉识别系统摄像头实时图片文件夹多图片等另有其他的识别系统可二开
大数据·人工智能·python·深度学习·yolo
AI_Claude_code4 小时前
ZLibrary访问困境方案三:Web代理与轻量级转发服务的搭建与优化
爬虫·python·web安全·搜索引擎·网络安全·web3·httpx
小陈工4 小时前
2026年4月7日技术资讯洞察:下一代数据库融合、AI基础设施竞赛与异步编程实战
开发语言·前端·数据库·人工智能·python
时空无限4 小时前
ansible 由于不同主机 python 版本不同执行报错
python·ansible
ZhengEnCi4 小时前
P2E-Python字典操作完全指南-从增删改查到遍历嵌套的Python编程利器
python
alanesnape4 小时前
使用AVL平衡树和列表实现 map容器 -- 附加测试/python代码
python·map·avl 平衡树·bst树·二叉树旋转
卤炖阑尾炎4 小时前
Python 网络编程实战:从 TCP/UDP 基础到高并发服务器开发
网络·python·tcp/ip