js 逆向爬取报销发票(一)

因为这个医院的应用做的不是很好,所以每次需要报销的时候,都需要手动的去一张张下载发票,很低效。像我这种懒人是不可能做这种重复劳动的,所以这篇文章就来写一写如何通过爬虫和逆向来自动下载发票。

利用 charles 爬取数据请求

前置:安装好 charles 或者 fiddler 等抓包工具,不做赘述。

该医院的公众号中可以查看到近期的发票信息,我们在 pc 微信中打开该页面

先清空 charles 中已经抓取到的请求,然后切换时间段,就能看到一个 gateway 的请求,结果如下图;

不难发现,接口对数据进行了加密处理,返回的内容是不可读的。不要慌,我们下一步就来尝试找找看解密函数。

解析接口数据

清理 charles sessions,然后重新打开公众号,可以看到多了很多请求,里面也有一些 js、css 文件了。然后在搜索中尝试输入 crypto,不要问为什么,因为经验告诉我大概率是可以搜到的。果然搜到了不少相关信息,嘿嘿~

然后尝试把 app.03c21be5.js 下载到本地,使用 vscode 打开并且格式化之后,继续搜索 crypto,不难找到如下代码

现在我们要做的就是尝试找到里面的一些加密变量,然后翻译成一个能用的函数进行测试,我们使用 nodejs 来编写这次的脚步,首先在本地安装 crypto-js

npm install crypto-js -D

然后新建一个 decrypt.js 文件,按照 app.js 中的内容创建一个 decrypt 函数

javascript 复制代码
const CryptoJS = require('crypto-js');

function decryptData(e) {}

我们观察 app.js 中的 decryptData 函数,发现参数都是混淆过的,不太容易找到具体的值。但是可以看到有一个 aseKey 参数名称是没有混淆的,那么我们继续在 app.js 中搜索 aesKey,看看是否能有所发现。

现在找到了 aeskey 和 appSecret,但是 mode 和 padding 还不知道。经过一番全局搜索后,并没有找到相关的信息,那么我们可以换一种思路来逆向了。

首先获取到当前页面的链接,然后复制出来,如下图所示

然后提取出 redirect_url 中的内容,使用 decodeURIComponent 来进行还原,如下

尝试在浏览器中直接打开该链接,发现是无法正常访问的

继续观察 network 中发出的请求,不难发现也包含了 gateway 请求,返回的数据也是加密的,那么很有可能这个页面的 js 中存在解密代码。我们在开发者工具中全局搜索 decrptData 函数。

然后跳转到具体位置,又出现了熟悉的内容

尝试在 decryptData 函数中挂个断点,刷新页面。然后,见证奇迹的时刻到了,您猜这么着,断点就进来了,嘿嘿~

查看 c.a 变量,进入 entry.js 文件中

跳转过来的内容如下,虽然找到代码了,但是还是不知道 mode 具体是什么值

接着打开 crypto-js 的 github 仓库,搜索 "this._cipher.encryptBlock(e, t)"

终于找到了,mode 使用的是 ECB。然后如法炮制,我们也不难找到 padding 对应的值是 Pkcs7

回到我们自己的 decrypt.js 中,编写代码如下

javascript 复制代码
const CryptoJS = require('crypto-js');
const fs = require('fs');

const aesKey = 'vss7db748e839799';

var getCryptoValue = function () {
  return CryptoJS.enc.Utf8.parse(aesKey);
};

function decryptData(e) {
  var decipher = CryptoJS.AES.decrypt(e, getCryptoValue(), {
    mode: CryptoJS.mode.ECB,
    padding: CryptoJS.pad.Pkcs7,
    iv: '',
  });
  return CryptoJS.enc.Utf8.stringify(decipher);
}

// data.txt 存放的是待解密的数据
const data = fs.readFileSync('data.txt', 'utf-8');

console.log(decryptData(data));

执行 decrypt.js,发现可以成功的解析出数据了

编写爬虫脚本,批量获取发票

观察上一步中解析出来的数据,可以看到有一个 receiptUrl 字段非常惹眼,是一个 url,点击进去其实就是发票的地址

然后我们点击该地址,就可以打开对应的发票页面了

接下来就是编写 spider.js 脚本批量遍历所有的发票 list,然后下载发票保存到本地就 👌 了。

这里我使用了 puppeteer + cheerio 来解析发票页面,获取到发票真实的 url,相关的内容会在下文再更新。

相关推荐
数据小小爬虫6 小时前
利用Java爬虫获取苏宁易购商品详情
java·开发语言·爬虫
小木_.6 小时前
【Python 图片下载器】一款专门为爬虫制作的图片下载器,多线程下载,速度快,支持续传/图片缩放/图片压缩/图片转换
爬虫·python·学习·分享·批量下载·图片下载器
lovelin+v175030409666 小时前
安全性升级:API接口在零信任架构下的安全防护策略
大数据·数据库·人工智能·爬虫·数据分析
qq_375872698 小时前
14爬虫:scrapy实现翻页爬取
爬虫·scrapy
Jelena技术达人8 小时前
Java爬虫获取1688关键字接口详细解析
java·开发语言·爬虫
小爬虫程序猿12 小时前
如何利用Python爬虫精准获取苏宁易购商品详情
开发语言·爬虫·python
API快乐传递者12 小时前
Python爬虫获取1688详情接口详细解析
开发语言·爬虫·python
小爬虫程序猿14 小时前
如何设置爬虫的访问频率?
爬虫