js 逆向爬取报销发票(一)

因为这个医院的应用做的不是很好,所以每次需要报销的时候,都需要手动的去一张张下载发票,很低效。像我这种懒人是不可能做这种重复劳动的,所以这篇文章就来写一写如何通过爬虫和逆向来自动下载发票。

利用 charles 爬取数据请求

前置:安装好 charles 或者 fiddler 等抓包工具,不做赘述。

该医院的公众号中可以查看到近期的发票信息,我们在 pc 微信中打开该页面

先清空 charles 中已经抓取到的请求,然后切换时间段,就能看到一个 gateway 的请求,结果如下图;

不难发现,接口对数据进行了加密处理,返回的内容是不可读的。不要慌,我们下一步就来尝试找找看解密函数。

解析接口数据

清理 charles sessions,然后重新打开公众号,可以看到多了很多请求,里面也有一些 js、css 文件了。然后在搜索中尝试输入 crypto,不要问为什么,因为经验告诉我大概率是可以搜到的。果然搜到了不少相关信息,嘿嘿~

然后尝试把 app.03c21be5.js 下载到本地,使用 vscode 打开并且格式化之后,继续搜索 crypto,不难找到如下代码

现在我们要做的就是尝试找到里面的一些加密变量,然后翻译成一个能用的函数进行测试,我们使用 nodejs 来编写这次的脚步,首先在本地安装 crypto-js

npm install crypto-js -D

然后新建一个 decrypt.js 文件,按照 app.js 中的内容创建一个 decrypt 函数

javascript 复制代码
const CryptoJS = require('crypto-js');

function decryptData(e) {}

我们观察 app.js 中的 decryptData 函数,发现参数都是混淆过的,不太容易找到具体的值。但是可以看到有一个 aseKey 参数名称是没有混淆的,那么我们继续在 app.js 中搜索 aesKey,看看是否能有所发现。

现在找到了 aeskey 和 appSecret,但是 mode 和 padding 还不知道。经过一番全局搜索后,并没有找到相关的信息,那么我们可以换一种思路来逆向了。

首先获取到当前页面的链接,然后复制出来,如下图所示

然后提取出 redirect_url 中的内容,使用 decodeURIComponent 来进行还原,如下

尝试在浏览器中直接打开该链接,发现是无法正常访问的

继续观察 network 中发出的请求,不难发现也包含了 gateway 请求,返回的数据也是加密的,那么很有可能这个页面的 js 中存在解密代码。我们在开发者工具中全局搜索 decrptData 函数。

然后跳转到具体位置,又出现了熟悉的内容

尝试在 decryptData 函数中挂个断点,刷新页面。然后,见证奇迹的时刻到了,您猜这么着,断点就进来了,嘿嘿~

查看 c.a 变量,进入 entry.js 文件中

跳转过来的内容如下,虽然找到代码了,但是还是不知道 mode 具体是什么值

接着打开 crypto-js 的 github 仓库,搜索 "this._cipher.encryptBlock(e, t)"

终于找到了,mode 使用的是 ECB。然后如法炮制,我们也不难找到 padding 对应的值是 Pkcs7

回到我们自己的 decrypt.js 中,编写代码如下

javascript 复制代码
const CryptoJS = require('crypto-js');
const fs = require('fs');

const aesKey = 'vss7db748e839799';

var getCryptoValue = function () {
  return CryptoJS.enc.Utf8.parse(aesKey);
};

function decryptData(e) {
  var decipher = CryptoJS.AES.decrypt(e, getCryptoValue(), {
    mode: CryptoJS.mode.ECB,
    padding: CryptoJS.pad.Pkcs7,
    iv: '',
  });
  return CryptoJS.enc.Utf8.stringify(decipher);
}

// data.txt 存放的是待解密的数据
const data = fs.readFileSync('data.txt', 'utf-8');

console.log(decryptData(data));

执行 decrypt.js,发现可以成功的解析出数据了

编写爬虫脚本,批量获取发票

观察上一步中解析出来的数据,可以看到有一个 receiptUrl 字段非常惹眼,是一个 url,点击进去其实就是发票的地址

然后我们点击该地址,就可以打开对应的发票页面了

接下来就是编写 spider.js 脚本批量遍历所有的发票 list,然后下载发票保存到本地就 👌 了。

这里我使用了 puppeteer + cheerio 来解析发票页面,获取到发票真实的 url,相关的内容会在下文再更新。

相关推荐
好看资源平台2 小时前
网络爬虫——综合实战项目:多平台房源信息采集与分析系统
爬虫·python
Tech Synapse16 小时前
Python网络爬虫实践案例:爬取猫眼电影Top100
开发语言·爬虫·python
数据小爬虫@17 小时前
利用Python爬虫获取淘宝店铺详情
开发语言·爬虫·python
B站计算机毕业设计超人1 天前
计算机毕业设计SparkStreaming+Kafka新能源汽车推荐系统 汽车数据分析可视化大屏 新能源汽车推荐系统 汽车爬虫 汽车大数据 机器学习
数据仓库·爬虫·python·数据分析·kafka·数据可视化·推荐算法
易辰君1 天前
【Python爬虫实战】深入解析 Scrapy 爬虫框架:高效抓取与实战搭建全指南
开发语言·爬虫·python
风动也无爱1 天前
Java的正则表达式和爬虫
java·爬虫·正则表达式
数据小爬虫@1 天前
如何利用Python爬虫精准获得1688店铺的所有商品信息
开发语言·爬虫·python
好看资源平台2 天前
动态网站数据爬取——Selenium的使用
爬虫·python
兆。2 天前
python实战案例----使用 PyQt5 构建简单的 HTTP 接口测试工具
爬虫·python·qt
吖吖耶3332 天前
【Python爬虫】Scrapy框架实战
爬虫·python·scrapy