VSCODE 使用LMSTUDIO本地显卡amd588 开发app

在 VS Code 中使用 Continue 扩展配合本地运行的 LMStudio 进行开发的详细步骤:


🚀 步骤 1:安装并配置 LMStudio

  1. 下载 LMStudio

    访问 LMStudio 官网 下载对应操作系统的版本(Windows/macOS/Linux)。

  2. 启动 LMStudio

    打开 LMStudio,在主页选择或下载需要的语言模型(如 Llama 3Mistral 等)。

    ✅ 确保模型成功加载(状态显示为 Loaded)。

  3. 启用本地服务器

    点击左侧导航栏的 Local Server,开启服务(默认端口为 1234)。

    📌 记录 API 地址(如 http://localhost:1234)。


⚙️ 步骤 2:安装 VS Code 扩展

  1. 安装 Continue 扩展
    在 VS Code 扩展商店中搜索 Continue,安装并重启 VS Code。

🔧 步骤 3:配置 Continue 连接 LMStudio

  1. 创建配置文件

    在 VS Code 中按 Ctrl+Shift+P(或 Cmd+Shift+P),输入 Continue: Edit config 并选择 config.json

  2. 添加 LMStudio 配置

    config.json 中添加以下内容:

    json 复制代码
    {
      "models": [
        {
          "title": "LMStudio Local",
          "model": "lmstudio",
          "apiBase": "http://localhost:1234/v1",
          "apiKey": "sk-xxx" // 留空或用任意字符串
        }
      ]
    }

    💡 注意:apiBase 需与 LMStudio 的本地地址一致,路径末尾加 /v1

C:\Users\admin\.continue\config.yaml

复制代码
name: Local Config
version: 1.0.0
schema: v1
models:
  # 原有模型配置
  - name: Llama 3.1 8B
    provider: ollama
    model: llama3.1:8b
    roles:
      - chat
      - edit
      - apply
  - name: Qwen2.5-Coder 1.5B
    provider: ollama
    model: qwen2.5-coder:1.5b-base
    roles:
      - autocomplete
  - name: Nomic Embed
    provider: ollama
    model: nomic-embed-text:latest
    roles:
      - embed
  - name: Gemma 2 9b IT
    provider: lmstudio
    model: gemma2-9b-it
    apiBase: http://localhost:1234/v1
  - name: Autodetect
    provider: lmstudio
    model: AUTODETECT
    apiBase: http://localhost:1234/v1/
  
  # 补充界面显示的新模型(LM Studio 已加载)
  - name: Qwen3.5 9B
    provider: lmstudio
    model: qwen3.5-9b
    apiBase: http://localhost:1234/v1
    roles:
      - chat
      - edit
      - apply
  - name: Deepseek R1 0528 Qwen3 8B
    provider: lmstudio
    model: deepseek-r1-0528-qwen3-8b
    apiBase: http://localhost:1234/v1
    roles:
      - chat
      - edit
  - name: Granite 3.1 8B
    provider: lmstudio
    model: granite3.1-8b
    apiBase: http://localhost:1234/v1
    roles:
      - chat
  - name: Gemma 3 4B
    provider: lmstudio
    model: gemma3-4b
    apiBase: http://localhost:1234/v1
    roles:
      - chat
      - autocomplete
  - name: Olmocr 2 7B
    provider: lmstudio
    model: olmocr2-7b
    apiBase: http://localhost:1234/v1
    roles:
      - chat
      - edit

🧪设置完成后就可以打开文件夹开始你的项目了。

相关推荐
shimly1234565 小时前
vscode 很难删除 copilot,如何关闭 copilot 功能?
ide·vscode·copilot
Waay7 小时前
Linux Shell 知识点考评(三):awk文本分析(附答案)
linux·服务器·编辑器
qq_396153457 小时前
idea + claude code [bate] 初体验
ide·idea
北冥有羽Victoria7 小时前
Django中间件实战:FBV/CBV日志全兼容
数据库·vscode·后端·python·django·sqlite·开源
iCxhust9 小时前
8086/8088单板机VSCode集中环境开发编译(第二版整理)
ide·vscode·嵌入式硬件·编辑器·嵌入式·微机原理·8086最小系统
努力的小帅9 小时前
使用 Tailscale 实现 Ubuntu 远程开发(VSCode Remote SSH + NoMachine)
linux·ide·vscode·ubuntu·编辑器·copilot
开发者联盟league9 小时前
解决vscode默认终端log日志输出中文乱码的问题
ide·vscode·编辑器
2501_9160074710 小时前
XCode 15 IDE新特性:苹果集成开发环境全面升级,提升编程效率与体验
ide·vscode·macos·ios·个人开发·xcode·敏捷流程
贾亚超10 小时前
手动配置vscode-server
ide·vscode·编辑器
lzhdim10 小时前
一款基于 .Net WinForm 开发的节点编辑器,纯 GDI 实现,体积仅 100+Kb
编辑器·.net