【mllm】——x64模拟htp的后端无法编译debug

mllm, qnn, x64

code:https://github.com/UbiquitousLearning/mllm

1. 问题

通过自定义qualcomm graph使用高通的htp后端进行llm推理,网络暂时只有mllm,和https://github.com/chraac/llama.cpp。qualcomm是支持x64模拟htp推理的,这样比较好debug,方便调试。但是mllm中是不支持的。因为他htp后端强制使用了libcdsprpc.so来申请内存,就是高通说的shared mem。但是这部分的问题是可以修复的,需要自己或作者出点工作量。后续的人有同样问题的可参考。

2. other

继续diss一下qualcomm不支持单op的算力调用。diss

相关推荐
csdnsqst00501 个月前
QAI AppBuilder 快速上手(7):目标检测应用实例
python·ai·qualcomm·appbuilder·qnn·wos
农夫山泉2号2 个月前
【个人开源】——从零开始在高通手机上部署sd(二)
stable diffusion·智能手机·sd·高通·qnn
农夫山泉2号2 个月前
【个人开源】——从零开始在高通手机上部署sd(一)
stable diffusion·智能手机·sd·高通·qnn
伊织code2 个月前
开源大模型食用指南 - 微调、部署 LLM、MLLM
开源·lora·大模型·llm·微调·mllm
paixiaoxin3 个月前
CV-MLLM经典论文解读|OneLLM: One Framework to Align All Modalities with Language
人工智能·深度学习·机器学习·计算机视觉·语言模型·实时音视频·mllm
paixiaoxin3 个月前
CV-MLLM经典论文解读| Link-Context Learning for Multimodal LLMs面向多模态大型语言模型的链接上下文学习
人工智能·深度学习·机器学习·计算机视觉·语言模型·大语言模型·mllm
带电的小王4 个月前
WhisperKit: Android 端测试 Whisper -- Android手机(Qualcomm GPU)部署音频大模型
android·智能手机·whisper·qualcomm
SpikeKing6 个月前
LLM - 配置 ModelScope SWIFT 测试 Qwen2-VL 模型推理(Infer) 教程 (1)
人工智能·swift·modelscope·多模态大模型·推理·mllm·微调框架
SpikeKing7 个月前
LLM - 使用 XTuner 指令微调 多模态大语言模型(InternVL2) 教程
人工智能·语言模型·自然语言处理·finetune·mllm·多模态大语言模型·指令微调