技术栈
llm推理
阿里云大数据AI技术
3 个月前
人工智能
·
tag
·
llm推理
TAG:BladeLLM 的纯异步推理架构
作者:张子鹏 PAI引擎团队随着 GQA/MLA/MoE 等模型结构不断发展,大语言模型的推理逐步解除了显存限制,逐渐向着高并发、高吞吐的方向发展。推理引擎的运行时开销也变得不可忽视。主流 LLM 推理框架的运行时开销大致来自:
Baihai IDP
9 个月前
人工智能
·
深度学习
·
缓存
·
llm
·
transformer
·
白海科技
·
llm推理
LLM 推理优化探微 (2) :Transformer 模型 KV 缓存技术详解
编者按:随着 LLM 赋能越来越多需要实时决策和响应的应用场景,以及用户体验不佳、成本过高、资源受限等问题的出现,大模型高效推理已成为一个重要的研究课题。为此,Baihai IDP 推出 Pierre Lienhart 的系列文章,从多个维度全面剖析 Transformer 大语言模型的推理过程,以期帮助读者对这个技术难点建立系统的理解,并在实践中做出正确的模型服务部署决策。