[论文笔记] LLM端侧小模型篇——1、剪枝量化的latency

接 LLM大模型剪枝篇,开启LLM端侧小模型篇的极致0成本部署之路~!!!!

剪枝效果

量化效果

推理框架

MLC-LLM:编译器方式推理,跨平台可用推理框架

https://huggingface.co/mlc-ai

相关推荐
Juchecar32 分钟前
给AI装上“手脚”:大模型如何自动执行复杂任务?
人工智能
长鸳词羡42 分钟前
LoRA微调
人工智能·深度学习·机器学习
jerryinwuhan1 小时前
Transformer ViT 架构(转载)
人工智能·深度学习·transformer
码农阿豪1 小时前
【征文计划】码上分享:基于 Rokid CXR-M SDK 构建「AI远程协作助手」实战全记录
人工智能·kotlin·sdk·rokid
mahuan1688881 小时前
ITVDesk
人工智能
聚梦小课堂1 小时前
用于大语言模型后训练阶段的新方法GVPO(Group Variance Policy Optimization)
人工智能·语言模型·后训练
说私域1 小时前
基于开源AI智能名片链动2+1模式S2B2C商城小程序的互联网运营体系化研究
人工智能·小程序
谢栋_2 小时前
基于 GitLab CI/CD 与 Google Gemini 的 AI Code Review 自动化方案
人工智能·ci/cd·gitlab
koo3642 小时前
李宏毅机器学习笔记17
人工智能·笔记·机器学习
心无旁骛~2 小时前
PIL与OpenCV图像读取的颜色格式陷阱:RGB vs BGR
人工智能·opencv·计算机视觉