导出LLaMA等LLM模型为onnx

通过onnx模型可以在支持onnx推理的推理引擎上进行推理,从而可以将LLM部署在更加广泛的平台上面。此外还可以具有避免pytorch依赖,获得更好的性能等优势。

这篇博客(大模型LLaMa及周边项目(二) - 知乎)进行了llama导出onnx的开创性的工作,但是依赖于侵入式修改transformers库,比较不方便。

这里本人实现了避免侵入式修改transformers库导出LLM为ONNX方法,代码库为:

https://github.com/luchangli03/export_llama_as_onnx/tree/main

可以在这个基础上进行简单修改从而导出其他模型,例如百川,Qwen等模型。当前已经加入了对Qwen的导出支持。

该方案优点是无需侵入式修改transformers代码,缺点是你需要提前了解各个模型的输入,相关shape和dtype。

导出的llama decoder会存在if算子,但是经过符号shape推导和设置相应的符号shape到onnx模型value_info,然后经过onnxsim可以完全去掉。也可以考虑修改llama定义代码去掉if。优化前后:

相关推荐
王解4 分钟前
AI生成PPT的技术演进:从智能填充到认知增强
人工智能·powerpoint
一切尽在,你来5 分钟前
LangGraph 概览
人工智能·python·langchain·ai编程
JQLvopkk2 小时前
能用C#开发AI
开发语言·人工智能·c#
郝学胜-神的一滴3 小时前
当AI遇见架构:Vibe Coding时代的设计模式复兴
开发语言·数据结构·人工智能·算法·设计模式·架构
Clarence Liu9 小时前
用大白话讲解人工智能(4) Softmax回归:AI如何给选项“打分排序“
人工智能·数据挖掘·回归
教男朋友学大模型9 小时前
Agent效果该怎么评估?
大数据·人工智能·经验分享·面试·求职招聘
hit56实验室9 小时前
AI4Science开源汇总
人工智能
CeshirenTester9 小时前
9B 上端侧:多模态实时对话,难点其实在“流”
开发语言·人工智能·python·prompt·测试用例
relis9 小时前
Tiny-GPU 仿真与静态分析完整指南:Pyslang + Cocotb 实战
人工智能
njsgcs10 小时前
agentscope怎么在对话的时候调用记忆的
人工智能