LocalAI 开源AI引擎,本地运行多模态模型无需GPU

文章目录

  • [LocalAI 开源AI引擎,本地运行多模态模型无需GPU](#LocalAI 开源AI引擎,本地运行多模态模型无需GPU)

LocalAI 开源AI引擎,本地运行多模态模型无需GPU

mudler 开源的 LocalAI 项目,目前获得 46,139 个 Star:

LocalAI 是开源AI引擎,支持运行多种AI模型,包括大语言模型、视觉模型、语音模型、图像生成模型、视频生成模型,可在任意硬件上运行,无需GPU。

LocalAI 兼容 OpenAI、Anthropic、ElevenLabs 等主流API接口,现有36+后端支持,包括 llama.cpp、vLLM、transformers、whisper、diffusers、MLX 等。

LocalAI 适配多种硬件平台,包括 NVIDIA、AMD、Intel、Apple Silicon、Vulkan,也支持仅使用CPU运行。

LocalAI 支持多用户使用,提供API密钥认证、用户配额、角色权限控制等功能。

LocalAI 内置AI代理,支持自主代理工具调用、RAG、MCP、技能扩展等能力。

LocalAI 采用隐私优先设计,所有数据处理均在用户本地基础设施完成,不会向外传输。

项目由 Ettore Di Giacinto 创建,目前由 LocalAI 团队维护。

快速安装

macOS 安装

用户可直接下载DMG安装包,安装后需执行命令清除隔离属性:

bash 复制代码
sudo xattr -d com.apple.quarantine /Applications/LocalAI.app

容器安装

LocalAI 提供 Docker、podman 等容器镜像,用户可根据硬件选择对应版本:

仅使用CPU运行:

bash 复制代码
docker run -ti --name local-ai -p 8080:8080 localai/localai:latest

使用NVIDIA GPU运行:

bash 复制代码
# CUDA 13
docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-gpu-nvidia-cuda-13
# CUDA 12
docker run -ti --name local-ai -p 8080:8080 --gpus all localai/localai:latest-gpu-nvidia-cuda-12

使用AMD GPU运行:

bash 复制代码
docker run -ti --name local-ai -p 8080:8080 --device=/dev/kfd --device=/dev/dri --group-add=video localai/localai:latest-gpu-hipblas

使用Intel GPU运行:

bash 复制代码
docker run -ti --name local-ai -p 8080:8080 --device=/dev/dri/card1 --device=/dev/dri/renderD128 localai/localai:latest-gpu-intel

使用Vulkan GPU运行:

bash 复制代码
docker run -ti --name local-ai -p 8080:8080 localai/localai:latest-gpu-vulkan

模型加载

LocalAI 支持多种来源的模型加载:

bash 复制代码
# 从模型库加载
local-ai run llama-3.2-1b-instruct:q4_k_m
# 从Huggingface加载
local-ai run huggingface://TheBloke/phi-2-GGUF/phi-2.Q8_0.gguf
# 从Ollama OCI registry加载
local-ai run ollama://gemma:2b
# 从YAML配置加载
local-ai run https://gist.githubusercontent.com/.../phi-2.yaml
# 从标准OCI registry加载
local-ai run oci://localai/phi-2:latest

LocalAI 可自动检测GPU能力,下载对应后端,无需用户手动配置。

2026年4月更新内容包括语音识别、人脸识别、Ollama API兼容、视频生成、后端版本自动升级、模型固定与按需加载切换、通用模型导入器,新增sglang、ik-llama-cpp、TurboQuant等多个后端。

项目开源地址:https://github.com/mudler/LocalAI

增sglang、ik-llama-cpp、TurboQuant等多个后端。

项目开源地址:https://github.com/mudler/LocalAI

相关推荐
零壹AI实验室1 小时前
AI Agent开发实战(一):5分钟搭个能干活的企业级Agent
人工智能
阿聪谈架构1 小时前
第10章:Agent 记忆系统 —— 让 AI 真正"记住"你
人工智能·后端
2zcode1 小时前
基于图像处理与数据分析的智能答题卡识别与阅卷系统设计与实现
图像处理·人工智能·数据分析
互联科技报1 小时前
能做表格的 AI 软件:数以轻舟Agent,AI 原生重构表格数据分析全流程
人工智能·重构·数据分析
深圳季连AIgraphX1 小时前
面向量产的自动驾驶高危场景库构建
人工智能·机器学习·自动驾驶
zzzzzz3101 小时前
60ms 启动一个安全沙箱:深入解析腾讯云 CubeSandbox 的架构设计
人工智能
沪漂阿龙1 小时前
面试题:神经网络的训练怎么讲?损失函数、反向传播、梯度下降、Early Stopping、GPU训练、参数量计算一文讲透
人工智能·深度学习·神经网络
Omics Pro1 小时前
柳叶刀|参考文献不存在
人工智能·算法·机器学习·支持向量机·自然语言处理
threelab1 小时前
Three.js 概率统计可视化 | 三维可视化 / AI 提示词
开发语言·javascript·人工智能