技术栈
lfm2.5-1.2b
skywalk8163
10 天前
llama
·
ollama
·
lfm2.5-1.2b
使用llama.cpp和ollama推理LFM2.5-1.2B模型
LFM2.5-1.2B-Instruct 是 Liquid AI 在 2026 年 1 月推出的开源、轻量级、高性能的通用指令微调 AI 模型,参数量 12 亿,专为在手机、笔记本等端侧设备上高效运行而设计,内存占用仅约 900MB,推理速度极快。
skywalk8163
15 天前
llama
·
lfm2.5-1.2b
2026.1月llama.cpp的最新进展:在AIStudio推理Llama-3-8B-Instruct-Coder.Q6_K.gguf模型
先上结论,在AIStudio上cpu推理非常慢,怎么说呢,速度回到了一年前,真不适应这么慢。所以没法在AIStudio上用。
我是有底线的