高并发架构实战 Day 49

聊天的内容普遍比较短,为了提高吞吐能力,通常会把用户的聊天内容放入分布式队列做传输,这样能延缓写入压力。 另外,在点赞或大量用户输入同样内容的刷屏情境下,我们可以通过大数据实时计算分析用户的输入,并压缩整理大量重复的内容,过滤掉一些无用信息。 压缩整理后的聊天内容会被分发到多个聊天内容分发服务器上,直播间内用户的聊天长连接会收到消息更新的推送通知,接着客户端会到指定的内容分发服务器群组里批量拉取数据,拿到数据后会根据时间顺序来回放。请注意,这个方式只适合用在疯狂刷屏的情况,如果用户量很少可以通过长链接进行实时互动。

相关推荐
kong@react20 分钟前
spring boot配置es
spring boot·后端·elasticsearch
dl74330 分钟前
一文看懂spring事件监听器
后端
Bunny021234 分钟前
RBAC权限管理模型中的部门角色绑定方案优化
后端
小镇cxy40 分钟前
开发者的新“超能力”——Claude Code 全面解析与使用指南
后端·claude
费益洲40 分钟前
Docker 核心技术:Namespace
后端
CF14年老兵1 小时前
从JS到Python:一个前端开发者的丝滑转型之路
前端·后端·trae
青梅主码1 小时前
我,工作5年了,却越来越觉得上班好痛苦
后端
用户6757049885021 小时前
JPG 与 JPEG 有什么区别?是不是一样的?
后端
四七伵1 小时前
一次 Git Rebase 事故,让我彻底明白 Rebase 和 Merge 的区别
git·后端
程序员爱钓鱼1 小时前
Go语言实战案例:静态资源服务(CSS、JS、图片)
后端·google·go