如何实现简单的ip反爬

在之前的博客中,我有分享过如何进行ip池的代理,下面分享反爬技术之一的ip反爬

用nodejs的koa简单演示一下

复制代码
import Koa from "koa"
import Router from "koa-router"
const app: Koa = new Koa();


const router: Router = new Router();

// 假设这里是ip请求的数据池
interface IpDataType {
    startTiem: number, // 第一次访问的时间
    requestTimes: number, // 10分钟之内访问的次数
}

let ipMap: { [key: string]: IpDataType } = {};

router.get('/testip', (ctx: Koa.Context, next) => {
    // 获取ip
    let ip: string = ctx.request.ip;
    let now: number = new Date().getTime();
    // 判断ip有没有请求过
    if (!ipMap[ip]) {
        ipMap[ip] = {
            startTiem: now,
            requestTimes: 1,
        }
    } else {
        ipMap[ip].requestTimes++;
    }
    // 判断10分钟之内有没有超过请求100次,如果有就直接屏蔽
    if (now - ipMap[ip].startTiem <= 10 * 60 * 1000 && ipMap[ip].requestTimes >= 100) {
        ctx.body = "ip已超过请求次数"
        return;
    }
    // 保底逻辑,如果距离上次请求的时间超过10分钟则重置数据,以防错封
    if (now - ipMap[ip].requestTimes <= 10 * 60) {
        ipMap[ip] = {
            startTiem: now,
            requestTimes: 1,
        }
    }
    ctx.body = "成功"
});

app.use(router.routes())
app.listen(3000, "0.0.0.0")

ip数据池

复制代码
// 假设这里是ip请求的数据池
interface IpDataType {
    startTiem: number, // 第一次访问的时间
    requestTimes: number, // 10分钟之内访问的次数
}

let ipMap: { [key: string]: IpDataType } = {};

这个是用来存储已经请求过的ip数据,用来做后续的判断

这里是简单用变量来代表ip请求数据池,一般大项目的ip请求数据池都是放在redis或者mysql中的

反爬原理

复制代码
// 获取ip
    let ip: string = ctx.request.ip;
    let now: number = new Date().getTime();
    // 判断ip有没有请求过
    if (!ipMap[ip]) {
        ipMap[ip] = {
            startTiem: now,
            requestTimes: 1,
        }
    } else {
        ipMap[ip].requestTimes++;
    }
    // 判断10分钟之内有没有超过请求100次,如果有就直接屏蔽
    if (now - ipMap[ip].startTiem <= 10 * 60 * 1000 && ipMap[ip].requestTimes >= 100) {
        ctx.body = "ip已超过请求次数"
        return;
    }

这里的反爬原理是,一定时间内,访问次数超过一定数量之后就进行禁止请求了,因为很多爬虫程序都是并发爬取的,而正常用户是达不到这么高的请求数量的,所以这个是策略之一

python演示爬虫过程

复制代码
def requestIp():
    for i in range(1000):
        try:
            data = requests.get("http://192.168.3.5:3000/testip");
            print(data.text)
        except Exception as e:
            print("请求报错:" + str(e));
            pass;

if __name__ == "__main__":
    requestIp();

这里就是短时间内请求很多次的爬虫程序,运行过程中可以发现后面的请求都无法得到一个正常的数据了

其他反爬手段

1、请求数据加密,根据一定的规则将参数加密,然后加密字符串在放在请求头中,这样的方式能对一些初级爬虫工程师有一定作用,对于会js逆向的工程师来说是没用的

2、账号反爬,对于一些接口是要登录才能请求的,这个时候针对账号短时间内请求次数的判断是不是爬虫,这个是我用过比较好用的方式了

相关推荐
j_xxx404_3 小时前
Linux:静态链接与动态链接深度解析
linux·运维·服务器·c++·人工智能
Johnstons3 小时前
Wireshark ExpertInfo是什么?一文讲透异常分级、适用场景、和传统抓包阅读的区别与排查标准
网络·测试工具·wireshark·es
alxraves3 小时前
医疗器械软件注册指导原则注意事项
网络·安全·健康医疗·制造
墨风如雪4 小时前
别被“高价建站”劝退了!我跑了多年的 WordPress 架构,一年只花 $25.7
服务器
云飞云共享云桌面4 小时前
东莞智能装备工厂数字化实践—研发部门10名SolidWorks设计共享一台云主机流畅设计
服务器·自动化·汽车·负载均衡·制造
专注API从业者4 小时前
Open Claw 京东商品监控选品实战:一键抓取、实时监控、高效选品
java·服务器·数据库
xingyuzhisuan5 小时前
稳定性考验:连续跑7天,哪家云主机不重启、不掉线?
服务器·人工智能·gpu算力
jsons15 小时前
给每台虚拟机设置独立控制台密码
linux·运维·服务器
GCKJ_08246 小时前
观成科技:利用DoH加密通信的恶意木马流量分析
网络
云栖梦泽6 小时前
Linux内核与驱动:14.SPI子系统
linux·运维·服务器·c++