高并发架构实战 Day 49

聊天的内容普遍比较短,为了提高吞吐能力,通常会把用户的聊天内容放入分布式队列做传输,这样能延缓写入压力。 另外,在点赞或大量用户输入同样内容的刷屏情境下,我们可以通过大数据实时计算分析用户的输入,并压缩整理大量重复的内容,过滤掉一些无用信息。 压缩整理后的聊天内容会被分发到多个聊天内容分发服务器上,直播间内用户的聊天长连接会收到消息更新的推送通知,接着客户端会到指定的内容分发服务器群组里批量拉取数据,拿到数据后会根据时间顺序来回放。请注意,这个方式只适合用在疯狂刷屏的情况,如果用户量很少可以通过长链接进行实时互动。

相关推荐
xuejianxinokok几秒前
io_uring 快吗? Postgres 17 与 18 的基准测试
数据库·后端·postgresql
DokiDoki之父5 分钟前
SpringMVC—REST风格 & Restful入门案例 & 拦截器简介 & 拦截器入门案例 & 拦截器参数 & 拦截器链配置
后端·restful
JohnYan15 分钟前
安全密钥(Security Key)和认证技术相关词汇表
后端·安全·设计模式
北海道浪子23 分钟前
[免费送$1000]ClaudeCode、Codex等AI模型在开发中的使用
前端·人工智能·后端
AskHarries2 小时前
Toolhub — 一个干净实用的在线工具集合
前端·后端
一个专注写bug的小白猿2 小时前
.net实现ftp传输文件保姆教程
后端·c#·.net
青皮桔2 小时前
Java+OpenCV实现图片切割
java·后端·opencv·计算机视觉
兮动人3 小时前
Spring中@Configuration注解的proxyBeanMethods属性详解
java·后端·spring
Jing_jing_X4 小时前
Spring 自动注入是怎么实现的?从 @Component 到 @Autowired 的完整流程
java·后端·spring
IT_陈寒4 小时前
5个Vue3性能优化技巧,让你的应用提速50% 🚀(附实测对比)
前端·人工智能·后端