快速上手Qwen Code:本地部署与环境配置全攻略

本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI

Qwen3-Coder 作为强大的编码 Agent,其本地部署和使用非常简单,搭配适配的命令行工具,能快速融入日常开发流程。以下是详细的安装配置步骤,以及常用命令与技巧。

一、本地安装:3 步完成部署

前置条件:安装 Node.js 20+

Qwen Code 命令行工具依赖 Node.js 环境,需先确保版本≥20

方式 1:通过 npm 一键安装(推荐)

Qwen Code 已发布到 npm 仓库,执行以下命令即可全局安装:

css 复制代码
npm i -g @qwen-code/qwen-code

方式 2:源码安装(适合开发者)

若需要自定义工具功能,可从 GitHub 克隆源码安装:

shell 复制代码
# 克隆仓库git clone https://github.com/QwenLM/qwen-code.git# 进入目录并安装依赖cd qwen-code && npm install# 全局链接工具(方便终端直接调用)npm install -g .

二、环境配置:

Qwen Code 通过环境变量或配置文件连接 API,需配置 3 个核心参数(从 阿里云百炼 获取 API 密钥)

方式 1:临时环境变量(终端直接设置)

打开终端,执行以下命令(替换为你的实际密钥):

shell 复制代码
# 替换为你的阿里云DashScope API密钥export OPENAI_API_KEY="你的_api_key_here"  # 固定API地址(国内用户)# 国际地址:https://dashscope-intl.aliyuncs.com/compatible-mode/v1export OPENAI_BASE_URL="https://dashscope.aliyuncs.com/compatible-mode/v1"  # 指定使用的模型(默认qwen3-coder-plus)export OPENAI_MODEL="qwen3-coder-plus"

方式 2:永久配置(.env 文件)

为避免每次启动终端重复设置,可编辑 .env 文件保存配置:

  1. 在用户根目录(或项目目录).env 文件中 写入配置内容
ini 复制代码
OPENAI_API_KEY="你的_api_key_here"OPENAI_BASE_URL="https://dashscope.aliyuncs.com/compatible-mode/v1"OPENAI_MODEL="qwen3-coder-plus"

三、常用命令

Qwen Code 命令行工具,支持丰富的编码场景,以下是高频使用命令:

1. 基础启动:快速进入交互模式

复制代码
qwen

启动后进入交互式对话界面,可直接输入需求,工具会实时生成代码并提供解释。

2. 检查点启动

检查点功能在AI修改文件前自动保存项目状态,让你可以随时一键回滚到修改前的状态

bash 复制代码
qwen --checkpointing# 说明 支持Tab自动补全# 如果显示 "No restorable tool calls found",说明还没有创建过检查点/restore - 查看所有可用检查点列表 检查点按时间戳命名,包含文件名和工具信息/restore <checkpoint_name> - 恢复到特定检查点

也可以修改配置文件 用户级~/.qwen/settings.json或者项目级 {project}/.qwen/settings.json

json 复制代码
{  "checkpointing": {    "enabled": true  },  "maxSessionTurns": 50}

3. 设置轮训次数

在配置文件 settings.json 中 可以使用 maxSessionTurns设置最大对话次数,一旦达到最大此时必须重新启动

json 复制代码
{  "maxSessionTurns": 50}

4. 记忆使用技巧

qwen 支持记忆保存能力,在你下次重新进入对话时,可以加载记忆具体操作如下

shell 复制代码
# 保存对话状态/chat save 项目进度_0101# 恢复对话状态  /chat resume 项目进度_0101

记忆层次结构

类型 存储位置 持久性 用途
会话记忆 内存 会话内 当前对话上下文
项目记忆 QWEN.md 持久化 项目相关信息
用户记忆 ~/.qwen/QWEN.md 持久化 个人偏好设置

5 沙箱环境

沙箱模式是 Qwen 的安全隔离机制,将 AI 执行的潜在危险操作(如 shell 命令、文件修改)隔离在受控环境中,保护你的主机系统不受意外损害。

  1. 命令行启用
bash 复制代码
# 使用默认沙箱qwen --sandboxqwen -s
  1. settings.json配置文件启用
json 复制代码
{  "sandbox": true}

学习资源推荐

如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。

本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI

相关推荐
吴维炜9 分钟前
「Python算法」计费引擎系统SKILL.md
python·算法·agent·skill.md·vb coding
山顶夕景4 小时前
【LLM】大模型数据清洗&合成&增强方法
大模型·llm·训练数据
tiger1196 小时前
FPGA 在大模型推理中的应用
人工智能·llm·fpga·大模型推理
AndrewHZ6 小时前
【AI黑话日日新】什么是大模型的test-time scaling?
人工智能·深度学习·大模型·llm·推理加速·测试时缩放
逻极7 小时前
OpenClaw「Clawdbot/Moltbot」 深入解析:核心架构深度剖析
python·ai·架构·agent·ai编程·moltbot·openclaw
GPUStack8 小时前
vLLM、SGLang 融资背后,AI 推理正在走向系统化与治理
大模型·llm·vllm·模型推理·sglang·高性能推理
程序员鱼皮9 小时前
前特斯拉 AI 总监:AI 编程最大的谎言,是 “提效”
前端·后端·ai·程序员·开发
Bruk.Liu9 小时前
(LangChain实战5):LangChain消息模版ChatPromptTemplate
人工智能·python·langchain·agent
阿里嘎多学长10 小时前
2026-02-02 GitHub 热点项目精选
开发语言·程序员·github·代码托管
Tadas-Gao10 小时前
大模型幻觉治理新范式:SCA与[PAUSE]注入技术的深度解析与创新设计
人工智能·深度学习·机器学习·架构·大模型·llm