lm studio

love530love8 天前
人工智能·windows·gateway·lm studio·reflex·openclaw·zeroclaw
ZeroClaw Reflex UI完整搭建流程——ZeroClaw Gateway + LM Studio + Reflex 本地 AI 管理面板🦀 ZeroClaw Reflex UI完整搭建流程ZeroClaw Gateway + LM Studio + Reflex 本地 AI 管理面板
love530love14 天前
人工智能·windows·json·cuda·lm studio·openclaw·context length
【OpenClaw 本地实战 Ep.3】突破瓶颈:强制修改 openclaw.json 解锁 32k 上下文记忆【OpenClaw 本地实战 Ep.1】抛弃 Ollama?转向 LM Studio!Windows 下用 NVIDIA 显卡搭建 OpenClaw 本地极速推理服务
love530love15 天前
人工智能·windows·gpu·cuda·ollama·lm studio·openclaw
【OpenClaw 本地实战 Ep.2】零代码对接:使用交互式向导快速连接本地 LM Studio 用 CUDA GPU 推理目标:让 OpenClaw 调用本地 LM Studio 运行的模型,代替 Ollama 实现稳定的 CUDA GPU 推理,体验极速的本地模型服务 部署方式:从源代码部署(非 npm 全局安装) 环境:Windows + WSL2(推荐)或原生 Windows 版本:OpenClaw 2026.2.13 (a2b45e1)
小C哈哈哈20 天前
人工智能·lm studio·大模型部署·deepseek·本地部署模型
告别联网限制与隐私担忧:在自家电脑跑一个专属的DeepSeek AI很多人不明白本地部署AI大模型的意思,今天我就用通俗易懂的语言给大家讲一讲。说白了就是把原本在别人服务器(电脑里)里的 AI 大模型,安装在你自己的电脑设备上运行,全程不用连外网、不用依赖别人的电脑服务,所有的 AI 计算、数据处理都在你自己的设备里完成。
gc_22991 年前
lm studio·deepseek
学习本地部署DeepSeek的过程(基于LM Studio)除了使用Ollama部署DeepSeek,还可以使用LM Studio部署DeepSeek,后者是一款允许用户在本地计算机上运行大型语言模型(LLMs)的桌面应用程序,旨在简化本地模型的使用,无需云端连接或复杂配置即可体验 AI 功能。本文学习并记录基于LM Studio部署DeepSeek的过程。   登录lmstudio官网,下载并安装LM Studio软件,如下图所示。   运行 LM Studio,第一次启动时会显示下图所示界面,点击右上角的“Skip onboarding”直接进入主界面。   
易天法地1 年前
lm studio
LM Studio 替换源的方式解决huggingface.co无法访问的问题安装软件完成之后,不要打开,打开了就直接关闭在安装目录下,比如我安装在E:\Program Files\LM Studio
SharpCJ2 年前
ai·llm·aigc·大语言模型·lm studio
LM Studio + open-webui 快速本地部署大语言模型自 OpenAi 发布 ChatGPT 对话性大语言模型,AI 这两年发展迎来爆发,国内外也衍生了大量的语言模型开放给公众使用。为了可以让更多人接触到AI,让本地化部署更加轻便快捷,于是就有了Ollama、LM Studio等可以在本地部署模型的工具。
容沁风2 年前
openai·gemmar·lm studio
LM studio使用gemmar聊天小试通过LM studio可以方便的使用各种模型,使用LM提供的chat界面或者是使用python代码。在windows下使用python简单一试,例子直接复制LM界面上的代码:
我是有底线的