llama.cpp:Linux_x86端测试Qwen2.5-Omni


目录


.

1.环境需要

以下是经实验验证可行的环境参考,也可尝试其他版本。

(1)PC:Ubuntu 22.04.4

(2)软件环境:如下表所示

工具 版本 安装
cmake 3.26.0 conda install -c conda-forge cmake ; conda install -c conda-forge c-compiler ; conda install -c conda-forge cxx-compiler
make 4.4.1 conda install -c conda-forge make
git 2.34.1 sudo apt-get update ; sudo apt-get install git
git-lfs 3.6.0 sudo apt-get install git-lfs
CURL sudo apt update ; sudo apt install libcurl4-openssl-dev

.

2.构建项目

(1)克隆项目:

Shell 复制代码
git lfs install
git clone https://github.com/ggml-org/llama.cpp.git
cd llama.cpp

(2)PC构建:

Shell 复制代码
cmake -B build
cmake --build build --config Release

(3)下载文件:

去hf-mirror.com下载gguf模型,以Qwen2.5-Omni-3B为例:

Shell 复制代码
# https://hf-mirror.com/ggml-org/Qwen2.5-Omni-3B-GGUF/tree/main
# 方式一:手动下载每个文件
# 方式二:命令下载(待补充)
下载模型到./Model/Qwen2.5-Omni-3B-GGUF/路径下

将你想推理的img.png和audio.wav放到./Data目录。

.

3.PC测试

运行模型:

shell 复制代码
./build/bin/llama-mtmd-cli \
    -m ./Model/Qwen2.5-Omni-3B-GGUF/Qwen2.5-Omni-3B-Q8_0.gguf \
    --mmproj ./Model/Qwen2.5-Omni-3B-GGUF/mmproj-Qwen2.5-Omni-3B-Q8_0.gguf \

测试:

shell 复制代码
......
main: loading model: ./Model/Qwen2.5-Omni-3B-GGUF/Qwen2.5-Omni-3B-Q8_0.gguf

 Running in chat mode, available commands:
   /image <path>    load an image
   /audio <path>    load an audio
   /clear           clear the chat history
   /quit or /exit   exit the program

> /image ./Data/img.png
./Data/img.png image loaded

>  图中是什么目标
encoding image slice...
image slice encoded in 22695 ms
decoding image batch 1/1, n_tokens_batch = 784
image decoded (batch 1/1) in 8743 ms

图中是一只可爱的卡通老鼠。

> /audio ./Data/audio.wav
./Data/audio.wav audio loaded

> 将音频转文字
encoding audio slice...
audio slice encoded in 5840 ms
decoding audio batch 1/1, n_tokens_batch = 750
audio decoded (batch 1/1) in 9680 ms

Hello, everyone. My name is Omni demo. This is demo test. 这是一个测试。一个中文参数测试。一个omni的样例测试。

> 四大名著是哪些?

四大名著是《红楼梦》、《西游记》、《水浒传》和《三国演义》。

.


声明:资源可能存在第三方来源,若有侵权请联系删除!

相关推荐
带电的小王21 小时前
llama.cpp:Android端测试Qwen2.5-Omni
android·llama.cpp·qwen2.5-omni
爱分享的飘哥3 个月前
第四十六章:AI的“瞬时记忆”与“高效聚焦”:llama.cpp的KV Cache与Attention机制
llama·llama.cpp·kv cache·attention优化·llm cpu推理·量化attention·gguf推理
踏莎行hyx4 个月前
使用langchain连接llama.cpp部署的本地deepseek大模型开发简单的LLM应用
c++·ai·langchain·大模型·llama.cpp·deepseek
农夫山泉2号6 个月前
【“星瑞” O6 评测】 — CPU llama.cpp不同优化速度对比
cpu·llama·llama.cpp·星瑞o6
吴法刚6 个月前
20_大模型微调和训练之-基于LLamaFactory+LoRA微调LLama3后格式合并
人工智能·lora·llama·大模型训练·大模型微调·llama.cpp
爱听歌的周童鞋7 个月前
理解llama.cpp如何进行LLM推理
llm·llama·llama.cpp·inference
o0o_-_8 个月前
【langchain/入门】使用langchain调用本地部署的大模型(以llama.cpp以及ollama为例)
langchain·ollama·llama.cpp·deepseek
月光技术杂谈8 个月前
llama.cpp 利用intel集成显卡xpu加速推理
人工智能·python·llama·intel·llama.cpp·xpu·集成显卡
Yongqiang Cheng9 个月前
llama.cpp GGML Quantization Type
quantization·llama.cpp·ggml