M2 运行 llamafile

安装llamafile很简单,进入官网,按照步骤安装运行即可。

https://github.com/Mozilla-Ocho/llamafile

  1. 下载 llava-v1.5-7b-q4.llamafile
  2. 赋予运行权限chmod +x llava-v1.5-7b-q4.llamafile
  3. 运行 ./llava-v1.5-7b-q4.llamafile -ngl 9999

    速度确实是比 ollama 快,ollama 用 qwen 1.5 7B 的模型。llamafile运行的是LLaVA 1.5,也是 7B 模型。下次试试能不能把 qwen 模型接入。

运行时遇到了一个问题

the cpu feature AVX was required at build time but isn't available on this system,解决这个问题,首先用 arm64 的 shell,然后用 root 启动 llamafile。

复制代码
arch -arm64 sh
su
./llava-v1.5-7b-q4.llamafile -ngl 9999
相关推荐
DARLING Zero two♡1 天前
拒绝“环境劝退”:Llama-2-7b 在昇腾 NPU 上的工程化部署与深度故障排查实录
华为·llama·gpu算力
LucianaiB1 天前
昇腾NPU实战:Llama-2-7B大模型的部署全流程与性能深度分析
cpu·llama·昇腾
Pocker_Spades_A1 天前
昇腾 NPU 算力平台下 Llama-2-7B 大模型部署与性能实测报告
llama
EterNity_TiMe_2 天前
从 0 到 1:Llama 3-8B 在昇腾 Atlas 800T 上的推理调优与算力榨干指南
数据库·llama·昇腾·atlas 800t·实战部署
不爱学英文的码字机器2 天前
基于昇腾 NPU 部署 Llama-3-8B 实战教程:从环境搭建到构建昇腾问答智能体
人工智能·pytorch·llama
是店小二呀2 天前
从 CUDA 到 CANN:昇腾 NPU 环境下 Llama-2 大模型部署
llama
红苕稀饭6662 天前
Llama-AVSR论文阅读
论文阅读·llama
Dragon水魅3 天前
LLaMA Factory 详解
llama
禁默3 天前
在昇腾 NPU上跑通 Llama 3-8B:从环境部署到 100% 算力满载
llama·昇腾npu·atlas 800t
百***78755 天前
Step-Audio-2 轻量化接入全流程详解
android·java·gpt·php·llama