爬虫逆向实战(十八)--某得科技登录

一、数据接口分析

主页地址:某得科技

1、抓包

通过抓包可以发现数据接口是AjaxLogin

2、判断是否有加密参数

  1. 请求参数是否加密?

    查看"载荷"模块可以发现有一个password加密参数和一个__RequestVerificationToken

  2. 请求头是否加密?

  3. 响应是否加密?

  4. cookie是否加密?

    查看cookie发现同样有一个__RequestVerificationToken,但是与表单参数中的不同

二、加密位置定位

1、password

观察表单中的加密参数password发现类似于base64转码,在控制台进行测试,发现确实就是

2、表单参数__RequestVerificationToken

通过搜索关键字可以发现,表单中的__RequestVerificationToken是取的html静态页面中的数值

3、cookie中的__RequestVerificationToken

清除cookie之后刷新页面,可以发现,是在请求静态页面时服务器设置的cookie

三、思路

首先请求html页面,获取到表单中的__RequestVerificationToken以及cookie,再根据获取到数据发送登录请求。

四、避坑

在发送请求时会遇到一个报错

在发送请求时加上一个verify=False的参数就可以了

源代码:

python 复制代码
"""
Email:912917367@qq.com
Date: 2023/8/16 16:38
"""
import base64
import re

import requests


class Spider:
    def __init__(self, username, password):

        self.session = requests.session()
        self.session.headers = {
            "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.7",
            "Accept-Language": "zh-CN,zh;q=0.9",
            "Cache-Control": "no-cache",
            "Connection": "keep-alive",
            "Pragma": "no-cache",
            "Sec-Fetch-Dest": "document",
            "Sec-Fetch-Mode": "navigate",
            "Sec-Fetch-Site": "none",
            "Sec-Fetch-User": "?1",
            "Upgrade-Insecure-Requests": "1",
            "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/115.0.0.0 Safari/537.36",
            "sec-ch-ua": "^\\^Not/A)Brand^^;v=^\\^99^^, ^\\^Google",
            "sec-ch-ua-mobile": "?0",
            "sec-ch-ua-platform": "^\\^Windows^^"
        }
        self.token = ''
        self.username = ''
        self.password = ''

    def get_token(self):
        url = "https://www.leadbank.com.cn/login/"
        # url = "https://www.baidu.com"
        response = self.session.get(url, verify=False)
        pattern = r'<input name="__RequestVerificationToken" type="hidden" value="(.*?)"'
        self.token = re.findall(pattern, response.text)[0]

    def login(self):
        encoded_bytes = base64.b64encode(self.password.encode('utf-8'))
        pwd = encoded_bytes.decode('utf-8')
        url = "https://www.leadbank.com.cn/customer/AjaxLogin"
        data = {
            "userName": self.username,
            "password": pwd,
            "mark": "encry",
            "rememberMe": "false",
            "returnUrl": "",
            "validcode": "n948",
            "random": "1692176276000",
            "__RequestVerificationToken": self.token
        }
        response = self.session.post(url, data=data, verify=False)

        print(response.text)
        print(response)


if __name__ == '__main__':
    s = Spider('账号', '密码')
    s.get_token()
    s.login()
相关推荐
喵手3 小时前
Python爬虫实战:针对天文历法网站(以 TimeandDate 或类似的静态历法页为例),构建高精度二十四节气天文数据采集器(附xlsx导出)!
爬虫·python·爬虫实战·零基础python爬虫教学·采集天文历法网站数据·构建二十四节气天文数据
喵手4 小时前
Python爬虫实战:采集博客园 Cnblogs文章标题、发布日期、标签以及HTML正文等(附 Markdown 文档格式预览)!
爬虫·python·爬虫实战·python爬虫工程化实战·零基础python爬虫教学·博客园文章采集·博客园文章采集转md格式
10岁的博客5 小时前
Libvio.link爬虫技术全解析
爬虫
2501_948120157 小时前
大语言模型与爬虫技术融合的智能数据采集系统
人工智能·爬虫·语言模型
喵手9 小时前
Python爬虫实战:采集巨潮资讯网等上市公司公告数据,通过智能关键词匹配技术识别分红、回购、停牌等重要信息(附CSV导出 + SQLite持久化存储)!
爬虫·python·爬虫实战·零基础python爬虫教学·采集巨潮资讯数据·智能匹配识别分红、回购等信息·csv导出+sqlite
泡泡以安9 小时前
Android 逆向实战:从零突破某电商 App 登录接口全参数加密
android·爬虫·安卓逆向
axinawang9 小时前
第9章 存储爬虫数据
爬虫
Data_Journal11 小时前
Scrapy vs. Crawlee —— 哪个更好?!
运维·人工智能·爬虫·媒体·社媒营销
深蓝电商API12 小时前
async/await与多进程结合的混合爬虫架构
爬虫·架构
Fleshy数模12 小时前
我的第一只Python爬虫:从Requests库到爬取整站新书
开发语言·爬虫·python