技术栈

lfm2.5-1.2b

skywalk8163
10 天前
llama·ollama·lfm2.5-1.2b
使用llama.cpp和ollama推理LFM2.5-1.2B模型LFM2.5-1.2B-Instruct 是 Liquid AI 在 2026 年 1 月推出的‌开源、轻量级、高性能的通用指令微调 AI 模型‌,参数量 12 亿,专为在手机、笔记本等端侧设备上高效运行而设计,内存占用仅约 900MB,推理速度极快。
skywalk8163
15 天前
llama·lfm2.5-1.2b
2026.1月llama.cpp的最新进展:在AIStudio推理Llama-3-8B-Instruct-Coder.Q6_K.gguf模型先上结论,在AIStudio上cpu推理非常慢,怎么说呢,速度回到了一年前,真不适应这么慢。所以没法在AIStudio上用。
我是有底线的