LobsterAI + LM Studio + Qwen2.5-0.5B 本地智能体安装笔记
注意: 只是验证安装流程 , 因为模型很小 所以不会很聪明,只能简单智能分析一下少量数据
一、环境基础
硬件:AMD Ryzen 2500U + Radeon Vega 8 Mobile Graphics(核显共享内存,可用显存2-3GB)
系统:Windows/macOS(通用步骤)
核心目标:搭建纯本地、无需翻墙的中文AI智能体
二、安装步骤(按顺序执行)
1. 安装 LM Studio(本地模型引擎)
- 下载地址:https://lmstudio.ai/(国内直连)
- 安装:双击安装包,一路下一步即可
- 下载模型:
- 打开LM Studio → 左侧「Model Hub」
- 搜索「Qwen2.5-0.5B-Instruct-GGUF」
- 选择「q2_K」量化版(文件名含q2_K,仅占1.2GB内存)→ 点击Download
- 启动模型服务:
- 左侧「My Models」→ 加载下载的Qwen2.5-0.5B模型
- 关键配置:GPU Layer Count=0(禁用AMD核显加速)、Context Window Size=512、勾选Low Memory Mode
- 左侧「Server」→ 模型选择已加载的Qwen2.5-0.5B、端口保持1234 → 点击「Start Server」
- 确认提示:Server running on http://localhost:1234(此窗口需保持打开)
- 左侧「My Models」→ 加载下载的Qwen2.5-0.5B模型
2. 安装 LobsterAI(AI执行智能体)
- 下载地址:https://lobsterai.tech/(国内直连)
- 安装:双击安装包,默认路径安装即可
3. LobsterAI 对接 LM Studio(核心配置)
-
打开LobsterAI → 右上角「设置」→「模型配置」
-
选择「自定义OpenAI兼容接口」,按以下填写:
配置项 填写内容 备注 API地址/Base URL http://localhost:1234/v1 必须带/v1,否则对接失败 API Key sk-123456(任意字符) 本地运行无需真实Key 模型名称 qwen2.5-0.5b-instruct 简化名即可,LM Studio模糊匹配 -
点击「测试连接」→ 提示「连接成功」后保存配置
4. 测试验证
在LobsterAI聊天框输入指令(如「你好,介绍一下自己」「桌面新建测试文本文档」),能正常响应/执行即成功。
三、常见问题及解决方案
| 问题现象 | 原因 | 解决方案 |
|---|---|---|
| pip install onnxruntime==1.23.1 报错:Invalid requirement: '#' | 命令包含注释符号# | 去掉注释,执行纯命令:pip install onnxruntime==1.23.1 -i https://pypi.tuna.tsinghua.edu.cn/simple |
| 模型名称填写后连接失败 | 模型名不匹配 | 1. 浏览器访问http://localhost:1234/v1/models,复制返回的id字段 2. 兜底填完整名:Qwen2.5-0.5B-Instruct-GGUF-q2_K |
| API地址填写后连接失败 | 缺少/v1后缀 | 必须填http://localhost:1234/v1(而非http://localhost:1234) |
| 模型运行卡顿/无响应 | 硬件资源不足/配置不当 | 1. 关闭浏览器、微信等占用内存的软件 2. 确认LM Studio中GPU Layer Count=0、勾选Low Memory Mode |
| LM Studio Server启动失败 | 1234端口被占用 | 端口改为8000,同时LobsterAI的API地址同步改为http://localhost:8000/v1 |
四、关键注意事项
- 全程无需翻墙,所有工具/模型国内直连下载
- 仅能运行0.5B级超小模型,7B/14B模型会因硬件不足卡死
- LM Studio的Server窗口必须保持打开,关闭则模型服务停止
- 指令仅用基础功能(文本生成、简单文件操作),复杂流程会卡顿
- 路径避免中文/空格,防止模型加载/调用失败