技术栈

推理引擎

dawdo222
13 天前
llm·推理引擎·xllm·tokenizer管理器
自己动手从头开始编写LLM推理引擎(3)在前两篇文章中,我们分别搭建了一个Demo推理引擎,并设计了自研的xLLM推理引擎架构。在Demo阶段,我们使用了简单的PD(Prompt Engineering + Decoding)分离架构,将提示工程和解码过程分离。然而,当我们从Demo走向生产级系统时,需要一个更加完善的Tokenizer管理器来处理复杂的推理场景。本文将深入介绍Tokenizer管理器的设计与实现,解释为什么需要专门的Tokenizer管理器,实现的原则和要点,并结合实际代码展示最佳实践。
deepdata_cn
4 个月前
人工智能·推理引擎
开源本地LLM推理引擎(Cortex AI)Cortex AI是一款开源本地LLM推理引擎,核心定位是“降低大模型部署门槛”,通过整合多类推理框架、兼容主流API标准,让开发者在本地设备(CPU/GPU)或边缘环境中快速运行大语言模型(包括DBRX、Mixtral等MoE架构模型),无需依赖复杂的集群资源。
✦昨夜星辰✦
1 年前
人工智能·系统架构·triton·推理引擎·tensorrt-llm
Triton Inference Server 架构原理上篇文章进行了 TensorRT-LLM & Triton Server 部署 ,本篇简单讲讲 Triton Inference Server 的架构原理,便于大家更好的做配置和开发。
我是有底线的