【新模型速递】PAI-Model Gallery云上一键部署Qwen3-Coder模型

引言

7月23日,阿里通义团队推出 Qwen3-Coder 模型,这是 Qwen 系列迄今为止最具 Agent 能力的代码模型。本文介绍如何在阿里云人工智能平台 PAI 的 Model Gallery 中一键部署 Qwen3-Coder 模型,并尝试了在 Qwen Code 工具中,使用部署的模型进行 Agentic 编程任务。

Qwen3-Coder 的上下文长度可以达到1M(Kimi K2只有128K),因为支持上下文更长,所以在 Qwen Code 工具中基本上一条指令可以让模型自己玩到底,不用拆分任务,方便很多。

模型介绍

7月23日,通义千问最新的AI编程大模型Qwen3-Coder正式开源。全新的Qwen3-Coder模型拥有卓越的代码和Agent能力,在Agentic Coding、Agentic Browser-Use 和 Foundational Coding Tasks 上均取得了开源模型的 SOTA 效果。

Qwen3-Coder 拥有多个尺寸,其最强大变体:Qwen3-Coder-480B-A35B-Instruct 模型是一个MoE模型,在编程任务上展现出显著的性能,同时具备长上下文能力。

由于 Qwen3-Coder-480B-A35B-Instruct 模型的参数量达 480B,需要至少 16*96G 显存的计算资源进行推理,云端部署成为企业用户和开发者们部署 Qwen3-Coder-480B-A35B-Instruct 时的优先选择。阿里云 PAI-Model Gallery 已同步接入 Qwen3-Coder-480B-A35B-Instruct 模型,提供企业级部署方案。

PAI-Model Gallery 是阿里云人工智能平台 PAI 的产品组件,它集成了国内外 AI 开源社区中优质的预训练模型,涵盖了 LLM、AIGC、CV、NLP 等各个领域。通过 PAI 对这些模型的适配,用户可以以零代码方式实现从训练到部署再到推理的全过程,简化了模型的开发流程,为开发者和企业用户带来了更快、更高效、更便捷的 AI 开发和应用体验。

PAI-Model Gallery 访问地址:pai.console.aliyun.com/#/quick-sta...

✅ 零代码一键部署

✅ 自动适配云资源

✅ 部署后开箱即用API

✅ 全流程运维托管

✅ 企业级安全 数据不出域

一键部署 Qwen3-Coder 模型

  1. 在 PAI-Model Gallery 模型广场找到 Qwen3-Coder-480B-A35B-Instruct 模型,或通过链接直达该模型:pai.console.aliyun.com/#/quick-sta...
  1. 在模型详情页右上角点击「部署」,在选择计算资源后,即可一键完成模型的云上部署。
  1. 部署成功后,在服务页面可以点击"查看调用信息"获取调用的 Endpoint 和 Token,想了解服务调用方式可以点击预训练模型链接,返回模型介绍页查看调用方式说明。
  1. 使用推理服务:您可以使用 API 调用模型服务,也可以使用 PAI 平台提供的在线调试功能,此外您还可以使用 PAI 平台提供的 WebUI 界面与模型进行交互。

在 Agentic CLI 中使用 Qwen3-Coder 模型

以下的实操以 Qwen Code 工具为例做演示,Claude Code、Cline 等 Agentic CLI 工具也支持。

本次随 Qwen3-Coder 模型一同开源的,还有一款面向 Agentic 编程的命令行工具:Qwen Code。

Qwen Code 是基于 Gemini CLI 分支开发,其功能定位与 Gemini CLI 相同。下面我们看一下如何在 Qwen Code 工具中使用我们在云上独立部署的 Qwen3-Coder 模型。

第一步:安装 Qwen Code

安装方式请参考:github.com/QwenLM/qwen...

第二步:配置云上部署的 Qwen3-Coder 模型服务

在 Qwen Code 项目目录中创建 .qwen/.env 或 .env 文件(建议使用 .qwen/.env 文件,以隔离其他环境变量与其他工具的配置),并设置以下信息。

ini 复制代码
export OPENAI_API_KEY="your_api_key_here"
export OPENAI_BASE_URL="your_api_base_url_here"
export OPENAI_MODEL="your_api_model_here"`

其中:

  • OPENAI_API_KEY:PAI平台模型服务的调用信息中的Token

  • OPENAI_BASE_URL:PAI平台模型服务的调用信息中的公网调用地址,需在后面加上"/v1"

  • OPENAI_MODEL:Qwen3-Coder-480B-A35B-Instruct

第三步:测试一个 Case

我们让 Qwen Code 写一个贪吃蛇小游戏,调用的模型已经配置成了我们在 PAI 平台上部署的 Qwen3-Coder-480B-A35B-Instruct。

从结果上看,逻辑完全正确!

执行过程中,Qwen3-Coder 的 plan 部分比 Kimi K2 要更详细,Kimi K2 拆分的子 plan 比较粗,Qwen3-Coder 会更细一些。

除了使用 Qwen Code,您也可以在 **Claude Code、Cline **等其他Agentic 编程工具中使用 Qwen3-Coder 模型,配置方式与 Qwen Code 类似,具体请参考各工具文档。

更多模型支持

PAI-Model Gallery 持续提供开源社区热门模型快速部署、训练、评测实践。

相关推荐
牛客企业服务21 分钟前
AI面试与传统面试的核心差异解析——AI面试如何提升秋招效率?
java·大数据·人工智能·python·面试·职场和发展·金融
倔强青铜三1 小时前
Python缩进:天才设计还是历史包袱?ABC埋下的编程之谜!
人工智能·python·编程语言
_一条咸鱼_1 小时前
LangChain记忆序列化与持久化方案源码级分析(37)
人工智能·面试·langchain
柠檬味拥抱1 小时前
神经符号一体化-打通数据驱动与规则推理的最后一公里
人工智能
aneasystone本尊1 小时前
学习 RAGFlow 的知识图谱功能
人工智能
数据智能老司机1 小时前
构建由 LLM 驱动的 Neo4j 应用程序——揭开 RAG 的神秘面纱
langchain·llm·aigc
数据智能老司机1 小时前
构建由 LLM 驱动的 Neo4j 应用程序——构建智能应用的知识图谱基础理解
langchain·llm·aigc
aneasystone本尊1 小时前
学习 RAGFlow 的 DeepDoc 技术之视觉处理
人工智能
数据智能老司机1 小时前
构建由 LLM 驱动的 Neo4j 应用程序——使用电影数据集构建你的Neo4j图数据库
langchain·llm·aigc
武子康1 小时前
大数据-52 Kafka 架构全解析:高吞吐、高可用分布式消息系统的核心奥秘
大数据·后端·kafka