手把手带你部署本地模型,让你Token自由(小白专属)

本教程包括不同显卡配置可以安装哪种大模型的对照表、3步安装本地模型图文教程、本地模型使用进阶示例三大模块

本地部署模型在内网开发 时,无需外网即可提供代码补全、日志分析等AI能力,避免敏感数据外泄;在出差或网络不稳时(如高铁、偏远现场),可离线运行,保障开发不中断。相比云端API,它规避了合规风险与计费成本,只需一台4GB显存的笔记本就能流畅运行Gemma-4B等小模型,实现"随时随地、安全可控"的智能辅助。

在一切开始前,一定要先安装QClaw

一、Gemma 4 本地安装速查表

全系列模型 × 显存对照表

显存 (VRAM) 代表显卡 Gemma 1 Gemma 2 Gemma 3 Gemma 4
2 GB 核显 / MX450 ✅ 2B (~1.5GB) ✅ 2B (~1.5GB) ✅ 1B (~1GB) ✅ E2B (~1.5GB)
4 GB GTX 1650/1660 ✅ 2B ⚠️ 7B(紧凑) ✅ 2B 9B(勉强) ✅ 1B 4B(~3.5GB) ✅ E2B E4B(~3.5GB)
6 GB RTX 2060 ✅ 2B 7B(~5.5GB) ✅ 2B 9B(~6.5GB) ✅ 4B 12B(紧凑) ✅ E2B E4B
8 GB RTX 3060/4060 ✅ 全部 Q4 ✅ 9B(~6.5GB) ✅ 4B 12B(~8GB) ✅ E4B 26B MoE(紧凑)
12 GB RTX 3060 12G ✅ 全部 FP16 ✅ 27B(Q4) ✅ 12B 27B(紧凑) ✅ 26B MoE 31B(Q4)
16 GB RTX 4080 --- ✅ 27B(Q4) ✅ 12B 27B(紧凑) ✅ 26B MoE 31B(Q4)
24 GB RTX 3090/4090 --- ✅ 27B(FP16) ✅ 27B(FP16) ✅ 31B(FP16)

Gemma 4 输入输出能力对照表

模型 参数量 上下文长度 📥 输入能力 📤 输出能力
E2B 23亿 (有效) 51亿 (含嵌入) 128K 文本图片/视频音频 文本/代码图片/视频/音频
E4B 45亿 (有效) 79亿 (含嵌入) 128K 文本图片/视频音频 文本/代码图片/视频/音频
26B MoE 260亿 (总量) 38-40亿 (激活) 256K 文本图片/视频音频 文本/代码图片/视频/音频
31B 310亿 (密集) 256K 文本图片/视频音频 文本/代码图片/视频/音频

二、让你三步拥有自己的本地模型

第一步 了解本地环境可以安装哪些模型

主要是借助QClaw,让它来检查你的电脑状态,推荐你安装的模型,询问话术如下:

我的电脑可以安装gemma4本地模型吗?可以安装多大的?

在QCalw推荐完成后,让它自己来安装

你来安装

第二步 按照教程安装

由于权限等原因,它有时候会给你详细的步骤让你来安装,如上图,推荐直接根据方案二来安装

LM Studio下载

下载完成后LM会默认推荐本机可以使用的最大模型,可以看一下和Qcalw推荐的是不是一致,然后直接下载安装就可以

等待就好~

第三步 安装成功,开始交流

当然你更习惯中文的话可以在修改中设置界面为中文!

三、高阶拓展

如果你想让本地的模型能够在其他软件内使用,可以获取它的token,步骤如下:

1、打开服务

2、点击服务设置,Token管理

新建

输入名称->新建

保存好Token,现在你就可以在其他软件内使用你的本地模型了

本地Token便捷使用指南

你可以寻找别人的开源工具本地安装后配置上述Token使用,当然你也可以直接告诉QClaw让它给你写一个聊天界面,方便你每次开机直接使用

构建一个前后端分离的 PWA 应用,前端使用 React + TypeScript + Vite PWA 插件,后端使用 FastAPI + SSE 流式响应,核心功能包括:从本地指定文件读取 Token、支持 Gemma 4 多模型选择、可开关的"思考模式"参数、对话历史记录的增删改查与持久化存储、通过 AbortController 实现对话中断、以及完整的 PWA 可安装与离线缓存能力;模型调用采用 OpenAI 兼容 API 方式对接本地 LM Studio 部署,后端仅作为中转与历史管理,从而实现完全本地化、可控、高可用的模型聊天界面。

我的QClaw开发效果如下,本地安装后每次开机都可以直接打开:

相关推荐
We་ct30 分钟前
深度剖析浏览器跨域问题
开发语言·前端·浏览器·跨域·cors·同源·浏览器跨域
weixin_427771611 小时前
前端调试隐藏元素
前端
永远不会的CC2 小时前
浙江华昱欣实习(4月23日~ 4月19日)
后端·学习
爱上好庆祝2 小时前
学习js的第五天
前端·css·学习·html·css3·js
C澒2 小时前
IntelliPro 产研协作平台:基于 AI Agent 的低代码智能化配置方案设计与实现
前端·低代码·ai编程
一袋米扛几楼982 小时前
【Git】规范化协作:详解 GitHub 工作流中的 Issue、Branch 与 Pull Request 最佳实践
前端·git·github·issue
直奔標竿2 小时前
Java开发者AI转型第二十五课!Spring AI 个人知识库实战(四)——RAG来源追溯落地,拒绝AI幻觉
java·开发语言·人工智能·spring boot·后端·spring
嘟嘟MD2 小时前
程序员副业 | 2026年4月复盘
后端·创业
网络点点滴2 小时前
前端与后端的区别与联系
前端
时空系2 小时前
认识Rust——我的第一个程序 Rust中文编程
开发语言·后端·rust