Trino 并发查询卡死问题排查

背景

目前实现了一个异步读的需求,大概逻辑就是在构造pageSource的时候,就把读取数据的请求发送出去,然后把数据缓存在内存中。并根据异步读的完成情况,设置这个pageSource的block状态。这样在调用getNextPage的时候,线程就不会因为读取数据而被阻塞住,可以直接从缓存中读取数据。提高线程的利用率。

为了防止并发场景下多个查询读取同一个stripe的时候,会出现重复去读相同数据的场景,造成资源浪费。我们用一个static caffeine cache来保存stripe信息,key是对应的stripe, value是一个queue, 保存每个查询对应的future对象。

在每个stripe读之前,会判断这个cache里面是不是已经有这个key了,如果有说明其他查询已经开始异步读这个stripe, 那这个查询则无需再异步读,直接把这个查询的future放入value中,等第一个查询完成了异步读,则会把value里所有的future取出来并设置为完成状态。这样所有读取这个stripe的查询都完成该stripe的异步读。

问题现象及分析

现象

当并发跑多个查询,且这几个查询读取的数据相同时,会偶发的出现个别查询卡死现象

分析

通过查看Trino webUI,看到失败的查询是在某个worker上卡住导致超时的

进到对应worker里面去搜该查询的split finished日志,因为每个split结束时,都会打印相应的信息,从而可以筛选出卡住的那个split

再根据这个split去查对应的日志,我会给每个stripe在结束异步读时都打印对应日志,进而找到是哪个stripe一直卡住没有完成,因为这个stripe一直没有完成,就会导致读取数据一直不会结束,进而导致查询超时失败。

找到卡住的stripe后,查找对应日志, query2发现该stripe已经有query1正在异步读了,因此把query2的future放入了cache的value中。而query1完成该stripe异步读时,打印cache中value的size值为1,说明在并发情况下,query2把自己的future放入队列,而query1获取队列时并没有感知到。两个操作之间有gap。

解决

为了解决写入和读取之间的gap, 其实就是要保证读写之间的原子性。之前的代码实现中读就是从cache中拿value, 然后遍历value中的future设置完成,写就是从cache中拿value, 然后往里加数据。读和写的过程中拿value的操作和处理value的操作不具备原子性,因此中间是存在并发问题的。

有问题的代码:

java 复制代码
//写入
cache.get(stripeIdentifier, s -> {  
    return new ConcurrentLinkedDeque<>();  
}).add(readFinishedSignal);

//读取
ConcurrentLinkedDeque<CompletableFuture> targetStripe = cache.getIfPresent(stripeIdentifier);  
if (targetStripe != null) {  
    targetStripe.forEach(finishSignal -> finishSignal.complete(null));  
    cache.invalidate(stripeIdentifier);  
}

caffeine cache 可以使用asMap()方法拿到cache内部的concurrentHashMap。然后读和写使用compute和computeIfPresent方法,因为在这两个方法里面的代码是保证原子性的,而且使用这两个方法的时候是会加锁的,这样就可以保证放入队列中的future是能别的线程拿到的。

改正后的代码:

java 复制代码
//写入
cache.asMap().compute(stripeIdentifier, (k, v) -> {  
    if (v == null) {  
        ConcurrentLinkedDeque<CompletableFuture> deque = new ConcurrentLinkedDeque<>();  
        deque.add(readFinishedSignal);  
        return deque;  
    } else {  
        v.add(readFinishedSignal);  
        return v;  
    }  
});

//读取
cache.asMap().computeIfPresent(stripeIdentifier, (k, v) -> {  
    v.forEach(finishSignal -> finishSignal.complete(null));  
    return null;  
});

改正后再测试,确实没有再出现并发卡死的现象了。

相关推荐
大数据编程之光6 分钟前
Flink Standalone集群模式安装部署全攻略
java·大数据·开发语言·面试·flink
B站计算机毕业设计超人8 分钟前
计算机毕业设计SparkStreaming+Kafka旅游推荐系统 旅游景点客流量预测 旅游可视化 旅游大数据 Hive数据仓库 机器学习 深度学习
大数据·数据仓库·hadoop·python·kafka·课程设计·数据可视化
捂月31 分钟前
Spring Boot 深度解析:快速构建高效、现代化的 Web 应用程序
前端·spring boot·后端
瓜牛_gn1 小时前
依赖注入注解
java·后端·spring
Estar.Lee1 小时前
时间操作[取当前北京时间]免费API接口教程
android·网络·后端·网络协议·tcp/ip
喜欢猪猪1 小时前
Django:从入门到精通
后端·python·django
一个小坑货1 小时前
Cargo Rust 的包管理器
开发语言·后端·rust
bluebonnet271 小时前
【Rust练习】22.HashMap
开发语言·后端·rust
uhakadotcom2 小时前
如何实现一个基于CLI终端的AI 聊天机器人?
后端
在下不上天2 小时前
Flume日志采集系统的部署,实现flume负载均衡,flume故障恢复
大数据·开发语言·python