爬虫逆向实战(二十一)-- 某某点集登录与获取数据

登录

一、数据接口分析

主页地址:某某点集

1、抓包

通过抓包可以发现登录接口是phonePwdLogin

2、判断是否有加密参数

  1. 请求参数是否加密?
    通过查看"载荷"模块可以发现有pwdsig两个加密参数
  2. 请求头是否加密?
  3. 响应是否加密?
  4. cookie是否加密?

二、加密位置定位

1、pwd

(1)看启动器

查看启动器发现里面包含异步,所以无法正确找到加密位置

(2)搜索关键字

通过搜索关键字pwd:可以找到一个pwd的加密位置

在此处打上断点,再次登录,发现可以断住,并且此处是将明文转换为了密文,所以可以确定此处是加密位置

2、sig

(1)搜索关键字

通过搜索关键字sig:可以找到一个sig的赋值位置

在此处打上断点,再次登录,发现可以断住,并且sig的生成就在上方,所以可以确定此处是加密位置

三、扣js代码

1、pwd

通过控制台测试可以发现,pwd参数加密是使用的标准MD5加密,所以可以不扣js,使用标准MD5模块进行加密

2、sig

通过控制台测试可以发现,sig参数同样是使用的MD5加密,只不过,在加密前对参数进行了处理,所以我们可以将处理方法HS扣出,然后再使用标准MD5加密即可。

数据

一、数据接口分析

1、抓包

通过抓包可以发现数据接口是api/dy

2、判断是否有加密参数

  1. 请求参数是否加密?
    通过查看"载荷"模块可以发现有一个sign加密参数,还有一个token是登录成功后服务器返回的,不需要关心
  2. 请求头是否加密?
  3. 响应是否加密?
  4. cookie是否加密?

二、加密位置定位

1、看启动器

查看启动器发现里面包含异步,所以无法正确找到加密位置

2、搜索关键字

通过搜索关键字sign:可以发现sign的生成位置

在此处打上断点,再次获取数据,发现可以断住,所以确定此处就是加密位置

三、扣js代码

通过加密位置可以看出,sign是由E方法生成的,调试执行进入E方法可以发现,是对数据进行加盐,然后使用sha256进行加密。其中加盐参数C经过多次生成,发现都是一样的,所以可以写死。

javascrapt源码

javascript 复制代码
var CryptoJS = require('crypto-js')

function H(n) {
    var e = []
        , t = "";
    for (var a in n)
        e.push(n[a]);
    for (var i = 0; i < e.length; i++)
        t += e[i] + "";
    return t += "JzyqgcoojMiQNuQoTlbR5EBT8TsqzJ",
        t
}

function S(n) {
    for (var e = Object.keys(n).sort(), t = {}, a = 0; a < e.length; a++)
        t[e[a]] = n[e[a]];
    return t
}

function E(n, e) {
    return CryptoJS.SHA256("param=" + JSON.stringify(n) + "&timestamp=" + e + "&tenant=1&salt=" + 'kbn%&)@<?FGkfs8sdf4Vg1*+;`kf5ndl$').toString()
}


function get_login_params(phone, password) {
    var s = {
        "phoneNum": phone,
        pwd: CryptoJS.MD5(password).toString(),
        "t": (new Date).getTime(),
        "tenant": 1
    };
    var sig = CryptoJS.MD5(H(S(s))).toString()
    s['sig'] = sig
    return s
}


function get_data_params(token) {
    var e = (new Date).getTime()
    var n = {
    "no": "dy0002",
    "data": {
        "days": 1,
        "rankType": 5,
        "liveDay": "2023-08-24"
    }
}
    return  {
        param: JSON.stringify(n),
        sign: E(n, e),
        tenant: "1",
        timestamp: e,
        token: token
    }
}

Python源码

python 复制代码
"""
Email:912917367@qq.com
Date: 2023/8/25 14:25
"""
import execjs
import requests


class Spider:
    def __init__(self):
        self.session = requests.session()
        self.session.headers = {
            "Accept": "application/json, text/plain, */*",
            "Accept-Language": "zh-CN,zh;q=0.9",
            "Cache-Control": "no-cache",
            "Connection": "keep-alive",
            "Content-Type": "application/json",
            "Origin": "http://www.hh1024.com",
            "Pragma": "no-cache",
            "Sec-Fetch-Dest": "empty",
            "Sec-Fetch-Mode": "cors",
            "Sec-Fetch-Site": "cross-site",
            "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/116.0.0.0 Safari/537.36",
            "sec-ch-ua": "^\\^Chromium^^;v=^\\^116^^, ^\\^Not)A;Brand^^;v=^\\^24^^, ^\\^Google",
            "sec-ch-ua-mobile": "?0",
            "sec-ch-ua-platform": "^\\^Windows^^"
        }
        with open('get_params.js', 'r', encoding='utf-8') as f:
            self.js_obj = execjs.compile(f.read())
        self.token = ''

    def login(self):
        url = "https://user.hrdjyun.com/wechat/phonePwdLogin"

        data = self.js_obj.call('get_login_params', '账号', '密码')
        response = self.session.post(url, json=data)
        self.token = response.json()['data']['token']
        print('token:', self.token)
        print(response.text)

    def get_data(self):
        url = "https://ucp.hrdjyun.com:60359/api/dy"
        data = self.js_obj.call('get_data_params', self.token)
        print(data)
        response = self.session.post(url, json=data)

        print(response.text)
        print(response)


if __name__ == '__main__':
    s = Spider()
    s.login()
    s.get_data()
相关推荐
躺平的花卷15 小时前
Python爬虫案例六:抓取某个地区某月份天气数据并保存到mysql数据库中
数据库·爬虫·python·mysql
罔闻_spider17 小时前
爬虫----webpack
前端·爬虫·webpack
B站计算机毕业设计超人1 天前
计算机毕业设计Python+Flask微博情感分析 微博舆情预测 微博爬虫 微博大数据 舆情分析系统 大数据毕业设计 NLP文本分类 机器学习 深度学习 AI
爬虫·python·深度学习·算法·机器学习·自然语言处理·数据可视化
waterHBO1 天前
python 爬虫 selenium 笔记
爬虫·python·selenium
bugtraq20212 天前
闲鱼网页版开放,爬虫的难度指数级降低。
爬虫
Bigcrab__2 天前
Python3网络爬虫开发实战(15)Scrapy 框架的使用(第一版)
爬虫·python·scrapy
九月镇灵将2 天前
爬虫逆向学习(六):补环境过某数四代
爬虫·补环境·瑞数
kngines2 天前
【PLW004】基于Python网络爬虫与推荐算法的新闻推荐平台v1.0(Python+Django+NLP+Vue+MySQL前后端分离)
爬虫·python·nlp·推荐算法