VSCODE 使用LMSTUDIO本地显卡amd588 开发app

在 VS Code 中使用 Continue 扩展配合本地运行的 LMStudio 进行开发的详细步骤:


🚀 步骤 1:安装并配置 LMStudio

  1. 下载 LMStudio

    访问 LMStudio 官网 下载对应操作系统的版本(Windows/macOS/Linux)。

  2. 启动 LMStudio

    打开 LMStudio,在主页选择或下载需要的语言模型(如 Llama 3Mistral 等)。

    ✅ 确保模型成功加载(状态显示为 Loaded)。

  3. 启用本地服务器

    点击左侧导航栏的 Local Server,开启服务(默认端口为 1234)。

    📌 记录 API 地址(如 http://localhost:1234)。


⚙️ 步骤 2:安装 VS Code 扩展

  1. 安装 Continue 扩展
    在 VS Code 扩展商店中搜索 Continue,安装并重启 VS Code。

🔧 步骤 3:配置 Continue 连接 LMStudio

  1. 创建配置文件

    在 VS Code 中按 Ctrl+Shift+P(或 Cmd+Shift+P),输入 Continue: Edit config 并选择 config.json

  2. 添加 LMStudio 配置

    config.json 中添加以下内容:

    json 复制代码
    {
      "models": [
        {
          "title": "LMStudio Local",
          "model": "lmstudio",
          "apiBase": "http://localhost:1234/v1",
          "apiKey": "sk-xxx" // 留空或用任意字符串
        }
      ]
    }

    💡 注意:apiBase 需与 LMStudio 的本地地址一致,路径末尾加 /v1

C:\Users\admin\.continue\config.yaml

复制代码
name: Local Config
version: 1.0.0
schema: v1
models:
  # 原有模型配置
  - name: Llama 3.1 8B
    provider: ollama
    model: llama3.1:8b
    roles:
      - chat
      - edit
      - apply
  - name: Qwen2.5-Coder 1.5B
    provider: ollama
    model: qwen2.5-coder:1.5b-base
    roles:
      - autocomplete
  - name: Nomic Embed
    provider: ollama
    model: nomic-embed-text:latest
    roles:
      - embed
  - name: Gemma 2 9b IT
    provider: lmstudio
    model: gemma2-9b-it
    apiBase: http://localhost:1234/v1
  - name: Autodetect
    provider: lmstudio
    model: AUTODETECT
    apiBase: http://localhost:1234/v1/
  
  # 补充界面显示的新模型(LM Studio 已加载)
  - name: Qwen3.5 9B
    provider: lmstudio
    model: qwen3.5-9b
    apiBase: http://localhost:1234/v1
    roles:
      - chat
      - edit
      - apply
  - name: Deepseek R1 0528 Qwen3 8B
    provider: lmstudio
    model: deepseek-r1-0528-qwen3-8b
    apiBase: http://localhost:1234/v1
    roles:
      - chat
      - edit
  - name: Granite 3.1 8B
    provider: lmstudio
    model: granite3.1-8b
    apiBase: http://localhost:1234/v1
    roles:
      - chat
  - name: Gemma 3 4B
    provider: lmstudio
    model: gemma3-4b
    apiBase: http://localhost:1234/v1
    roles:
      - chat
      - autocomplete
  - name: Olmocr 2 7B
    provider: lmstudio
    model: olmocr2-7b
    apiBase: http://localhost:1234/v1
    roles:
      - chat
      - edit

🧪设置完成后就可以打开文件夹开始你的项目了。

相关推荐
小Tomkk1 小时前
怎么配置 Visual Studio Code 配置 C/C++
c语言·c++·vscode
逆向编程3 小时前
如何在Ubuntu虚拟机中使用Vim编辑器?
ubuntu·编辑器·vim
Risehuxyc3 小时前
Visual Studio 输出中文乱码问题
ide·visual studio
golang学习记3 小时前
VSCode 官宣:全新默认主题!
ide·vscode·编辑器
波尔德3 小时前
vscode codex 字体大小设置
ide·vscode·编辑器
qq_427506085 小时前
vscode使用kimi code的简单经验分享
前端·vscode·ai编程
村中少年6 小时前
vscode如何添加ollama本地模型-实现token自由
vscode·llm·token·ollama·本地模型·qwen3
π同学6 小时前
ESP-IDF+vscode开发ESP32第四讲——I2C
vscode·esp32·i2c
kiki_24116 小时前
用IntelliJ IDEA编写Java程序,从0到1完整教程
java·ide·intellij-idea
风静如云6 小时前
VSCode:控制窗口默认缩放
vscode