LM Studio本地部署Qwen3

本文较长,建议点赞收藏。更多AI大模型开发学习视频籽料, 都在这>>Github<<

一、概述

LM Studio 是一款桌面应用程序,用于在您的计算机本地开发和实验 LLM。

官方地址:lmstudio.ai

官方中文地址:lm-studio.cn

主要功能

  • 用于运行本地 LLM 的桌面应用程序

  • 熟悉的聊天界面

  • 搜索和下载功能(通过 Hugging Face 🤗)

  • 可以监听类似 OpenAI 端点的本地服务器

  • 用于管理本地模型和配置的系统

重点来了,LM Studio可以本地运行Hugging Face上面的所有模型,只要Hugging Face有就行。

即使国内网络,依然可以下载任意模型,速度也很快。

Hugging Face地址:huggingface.co

Ollama本地我也运行过,就是有一个很大缺点,模型不够丰富,因为很多模型不能适配Ollama。

目前模型最丰富的网站,还是Hugging Face,更新速度非常快。比如Qwen3凌晨发布,第二天,Hugging Face就可以看到了。

二、安装

访问中文网页:lm-studio.cn,下载客户端,直接下一步,下一步安装好,就可以了。

三、使用

中文文档:lm-studio.cn/docs/app

设置语言

打开客户端,点击右下角的设置按钮

设置为简体中文

模型目录

默认目录是C盘,由于C盘空间太小了,所以需要设置为其他盘,比如: E盘

手动创建目录 E:\lmstudio\model

然后点击按钮,设置一下即可。

模型安装

默认没有模型,所以需要安装一个,这里以最火的Qwen3为例子。

点击搜索按钮

搜索模型,比如:Qwen3-4b

点击下载

下载速度还可以,17MB/s

下载完成后,不要着急运行。

注意:LM Studio搜索展示的模型,会自动根据你的电脑配置,显示是否可以正常运行。

比如:Qwen3 235B A22B,就会有提示。

运行模型

点击按钮,选择加载模型,Qwen3-4b

点击设置,开启网络和cors

端口暴露:默认使用 1234 端口,可自定义修改(需注意端口冲突问题)

跨域支持:启用 CORS 后,可对接网页应用或其他客户端工具

局域网访问:勾选"在局域网内提供服务"选项后,服务器会监听所有网络接口(0.0.0.0),允许其他设备通过 IP 地址访问

右边会展示模型相关信息

API密钥是:qwen3-4b

注意:这里会进行监听本机ip的1234端口。

重点提醒一下,这里最好是内网访问,不要用公网暴露端口,否则很容易受到攻击。

访问api地址:http://127.0.0.1:1234/v1/models

效果如下:

测试模型

回到首页,选择模型,提问

四、Cherry Studio测试

将Cherry Studio更新到最新版本

点击模型服务-->LM Studio

输入API密钥

添加模型:qwen3-4b

点击检测

检查模型

提示连接成功,就可以了

回到首页,选择默认助手,选择模型

LM Studio基本使用,到这里就结束了,使用还是挺简单的。

Qwen3模型都支持MCP调用,这点挺好的。

学习资源推荐

如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。

Github

相关推荐
redreamSo1 天前
像风一样自由,像树一样生长
程序员
舒一笑1 天前
为什么where=Version就是乐观锁了?
后端·mysql·程序员
你的人类朋友1 天前
认识一下Bcrypt哈希算法
后端·安全·程序员
AI大模型1 天前
无所不能的Embedding(06) - 跨入Transformer时代~模型详解&代码实现
程序员·llm·agent
大千AI助手1 天前
灾难性遗忘:神经网络持续学习的核心挑战与解决方案
人工智能·深度学习·神经网络·大模型·llm·持续学习·灾难性遗忘
大模型教程1 天前
本地AI知识库问答开源技术实现(二)--配置模型和知识库
程序员·llm·ollama
火山引擎开发者社区1 天前
豆包・图像创作模型 Seedream 4.0 正式发布!
llm
算家计算1 天前
多年AI顽疾被攻克!OpenAI前CTO团队破解AI随机性难题,大模型可靠性迎来飞跃
人工智能·llm·资讯
文心快码BaiduComate1 天前
文心快码3.5S全新升级,体验多智能体协同开发,最高赢无人机!
前端·后端·程序员
袁煦丞1 天前
企业微信开发者的‘跨网穿梭门’:cpolar内网穿透实验室第499个成功挑战
前端·程序员·远程工作