什么时候外部依赖接口慢拖死应用?

A应用调用B应用,当B应用的接口响应耗时平均都在3000ms的时,如果当前A调用B的请求数达300/s 那么在3s内A应用在途的请求数 = 300 * 3 =900 ,按照servlet原理一个http的请求需要一个线程提供服务,即需要900个线程提供服务,tomcat线程数一般就1500左右,假设数字我们在变一下:

|--------|---------|------------------|------------|
| 耗时 | qps | 3000ms内需要线程数 | 备注 |
| 3000ms | 300 | 900 | 应用争抢cpu |
| 3000ms | 400 | 1200 | 应用基本抢不到cpu |
| 3000ms | 500 | 1500 | 应用完全死机 |
| 4000ms | 300 | 1200 | 应用基本死机 |
| 4000ms | 400 | 1600 | 应用基本死机 |
| 4000ms | 500 | 2000 | 应用完全死机 |

针对上面的场景,为了保护A应用不被外部B应用响应慢拖死,需要合理设置A调用B的接口超时时间,但是B接口的超时是不可避免的,网络随时抖动,B应用可能故障,B应用可能性能瓶颈,A请求量增大导致B扛不住等。所以A做的措施

  1. 设置合理接口超时时间
  2. A调用B设置熔断
  3. 上游调用A设置限流
    1. 注意一定是线参数限流模式,因为qps限流当尖峰流量来的时候,同时遇到B响应慢,则A可能瞬间线参数打满,A直接夯死了

以上问题是我在生产上遇到过的,当时8个实例的应用,B应用耗时3s-4s,瞬间A实例的线参数打打到1500-1600,A的所有实例打死了7个,这个时候调整限流qps,熔断时间等已经来不及,因为应用早已经打死了,只能重启。所以一定要有线程数限流的模式做兜底,不管你qps调整多高,要用线程数模式来兜底一次,当前这个接口,需要最大,最多分配多少线程来提供服务?

相关推荐
Bigger27 分钟前
告别版本焦虑:如何为 Hugo 项目定制专属构建环境
前端·架构·go
狗哥哥5 小时前
微前端架构下的平台级公共组件资源体系设计
前端·架构
两万五千个小时5 小时前
落地实现 Anthropic Multi-Agent Research System
人工智能·python·架构
Mintopia6 小时前
思想长期停在事物表面的深层原因:认知机制、环境结构与技术化治理
架构
兆子龙6 小时前
React Compiler 来了:少写 useMemo,照样稳
前端·架构
兆子龙1 天前
用 React + Remotion 做视频:入门与 AI 驱动生成
前端·架构
一枚前端小姐姐1 天前
低代码平台表单设计系统技术分析(实战二)
低代码·架构·前端框架
爱勇宝1 天前
2026年前端生存规划:只会写页面的人,正在被悄悄淘汰
前端·后端·架构
天蓝色的鱼鱼1 天前
Node.js 中间层退潮:从“前端救星”到“成本噩梦”
前端·架构·node.js
codingWhat1 天前
uniapp 多地区、多平台、多环境打包方案
前端·架构·node.js