骁龙大赛-技术分享第5期(上)

  1. 在 QAI AppBuilder 中部署模型时,哪些情况会导致模型"不兼容"?如何判断模型能否在 NPU 上运行?

    答复:没有"不兼容模型"这种说法,理论上所有能够通过TensorFlow,PyTorch 或 ONNX Runtime推理的模型,都可以转换成 QNN 上下文二进制格式并运行在NPU上的。

    大家容易遇到的比较难处理的问题通常不是模型能不能转换,不是模型能不能跑在NPU上,难点在于如何把模型量化成更小的精度的模型并且能够保证精度不会损失过多。量化成更小的精度意味着可以占用更小的内存,运行更快,但过度优化容易导致精度损失,需要花更多时间去优化,让损失降到合理范围。

  2. 通过 LangFlow 调用本地模型是否会带来额外延迟?如果延迟比较高,可以怎么优化?

    答复:通过 LangFlow 调用本地模型,模型本身不会产生额外延迟,但 LangFlow 内部的实现有可能会导致模型的输出不能及时显示到 LangFlow 界面上,这完全取决于 LangFlow 内部的实现。如果要优化的化,更多的还是从 LangFlow 这个开源框架的角度去优化。

  3. LangFlow 构建的流程如果要嵌入本地应用(桌面端或移动端),有没有推荐的接入方式?

    答复:通过 LangFlow 构建的模型应用需要运行的话,首先需要 LangFlow 在后台运行。LangFlow 可以把我们自己搭建的 Flow 导出成基于 Web 的 API,自己的应用程序可以通过这些 API 来调用我们在 LangFlow 中创建的 Flow 提供的功能。

  4. 多模态模型(如 CLIP、Whisper)如何使用 AppBuilder 部署?是否有现成的案例?

    答复:这两个模型,我们在 QAI AppBuilder GitHub (https://github.com/quic/ai-engine-direct-helper) 上正好都有相应的例子,这些例子不需要任何修改,可以直接运行,可以去我们的 GitHub 上获取代码,尝试一下。

  5. 本地大模型的首 token 延迟一般能做到多少?是否能支持实时对话?

    答复:由于我们 NPU 架构设计的特性,对于用户输入内容的处理非常快。而且在对话的场景中,用户一次输入的 tokens 不会太多,所以首 tokens 延迟应该不会成为对话场景的瓶颈。

相关推荐
@小匠2 小时前
Read Frog:一款开源的 AI 驱动浏览器语言学习扩展
人工智能·学习
一灯架构5 小时前
90%的人答错!一文带你彻底搞懂ArrayList
java·后端
网教盟人才服务平台6 小时前
“方班预备班盾立方人才培养计划”正式启动!
大数据·人工智能
芯智工坊6 小时前
第15章 Mosquitto生产环境部署实践
人工智能·mqtt·开源
菜菜艾6 小时前
基于llama.cpp部署私有大模型
linux·运维·服务器·人工智能·ai·云计算·ai编程
TDengine (老段)6 小时前
TDengine IDMP 可视化 —— 分享
大数据·数据库·人工智能·时序数据库·tdengine·涛思数据·时序数据
小真zzz6 小时前
搜极星:第三方多平台中立GEO洞察专家全面解析
人工智能·搜索引擎·seo·geo·中立·第三方平台
mldong7 小时前
Python开发者狂喜!200+课时FastAPI全栈实战合集,10大模块持续更新中🔥
后端
GreenTea7 小时前
从 Claw-Code 看 AI 驱动的大型项目开发:2 人 + 10 个自治 Agent 如何产出 48K 行 Rust 代码
前端·人工智能·后端
火山引擎开发者社区7 小时前
秒级创建实例,火山引擎 Milvus Serverless 让 AI Agent 开发更快更省
人工智能