springboot集成guava布隆过滤器

1.创建springboot项目,引入maven依赖

bash 复制代码
		<dependency>
			<groupId>com.google.guava</groupId>
			<artifactId>guava</artifactId>
			<version>23.0</version>
		</dependency>

2.创建guava布隆过滤器

bash 复制代码
@Component
public class GuavaFilter {
    //初始化一个常量
    public static final int _1W = 10000;
    //初始化guava过滤器的容器容量
    public static final int SIZE = 100 * _1W;
    //误报率
    public static double  fpp = 0.03;  //误报率
    //创建一个guava过滤器
    public static BloomFilter bloomFilter = BloomFilter.create(Funnels.integerFunnel(),SIZE,fpp);


    //向guava过滤器中添加100万个数据
    //验证不在这100万数据之外的10万个数据的误判率
    @PostConstruct
    public void guavaFilter(){
        for(int i=1;i<=SIZE;i++){
            bloomFilter.put(i);
        }
        List<Integer> list = new ArrayList<>();
        for(int i = SIZE+1;i<SIZE+10*_1W;i++){
            if(bloomFilter.mightContain(i)){
                System.out.println(i + "被误识别了");
                list.add(i);
            }
        }
        System.out.println("误识别个数为:" + list.size());
    }
}

3.启动程序,观察结果

误识别的个数为3033个,误识别率3033/1000000≈0.03

4.对于误判率的思考

代码里配置的误判率为0.03,这里就会有小伙伴问,误判率(hash冲突概率)不应该越低越好吗,那我配置成0.01或者0.00000000001可以吗?

我们debug一下guava布隆过滤器的源码,点进去这个creat方法,断点打到如下图所示的位置

我们先看误报率配置0.03的情况

想要误报率控制在0.03,比特数组的位数需要达到7298440并且使用5种hash算法

再看误报率配置0.01的情况

想要误报率控制在0.01,比特数组的位数需要达到9585058并且使用7种hash算法

再看误报率配置0.00000000001的情况

想要误报率控制在0.00000000001,比特数组的位数需要达到52717821并且使用37种hash算法

当我们把误报率配置成0.00000000001,重新启动下程序

5.布隆过滤器的数据流向

相关推荐
架构师沉默几秒前
别又牛逼了!AI 写 Java 代码真的行吗?
java·后端·架构
zone77391 小时前
006:RAG 入门-面试官问你,RAG 为什么要切块?
后端·算法·面试
狗头大军之江苏分军1 小时前
消耗 760万 Token 后,一文看懂了“小龙虾” OpenClaw 和 OpenCode 的区别
前端·后端
前端小张同学2 小时前
一次支付回调引发的「血案」:我是如何用 Redis + AOP 实现接口幂等的
后端
小飞Coding2 小时前
Spring Boot 中关于 Bean 加载、实例化、初始化全生命周期的扩展点
spring boot
孟沐2 小时前
Java IO 流 - FileOutputStream & ObjectOutputStream 大白话解析
后端
小飞Coding3 小时前
彻底搞懂 Spring 容器导入配置类:@EnableXXX 与 spring.factories 核心原理
spring boot
lichenyang4533 小时前
Node.js文件上传原理
后端
Java水解3 小时前
微服务架构下Spring Session与Redis分布式会话实战全解析
后端·spring
Moe4883 小时前
如何使用 Spring Cache 结合 Redis 和 Caffeine 构建二级缓存机制
后端