DeepSeek V4 + GPT-5.5 一手实战,结果很意外!附 Codex 保姆级项目教程

大家好,我是程序员鱼皮。

最近 AI 圈儿也太闹腾了,4 月 23 号 OpenAI 发布了 GPT-5.5,紧接着第二天 DeepSeek 就放出了 V4,两个重磅模型前后脚上线。

光看跑分没什么意思,模型好不好用,还得拿真实项目来检验。

正好 OpenAI 的 Codex 桌面端这段时间更新很猛,已经从一个纯 AI 编程工具进化成了支持 Computer Use、插件市场、内置浏览器的「超级 App」。

所以这篇文章,我全程用 Codex + GPT-5.5 来开发一个完整的全栈项目,后端对接 DeepSeek V4 的 API 实现 AI 能力。

看完这期,你能学会 Codex 的使用方法、感受新模型的实际能力、掌握 AI 编程的实用技巧,可谓一举三得。

点个收藏,咱们开始~

需求分析

这次要做的项目叫「项目学习助手」(project-helper),核心需求很简单:

用户输入一个 GitHub 仓库地址,系统自动克隆项目并分析源码,生成一份通俗易懂的完整分析报告。报告涵盖项目概述、技术栈、目录结构、核心模块、数据流、设计模式、阅读建议等,真正做到「傻子也能懂」。分析过程实时推送进度,已经分析过的项目自动缓存,不用重复分析。

另外,用户还可以针对源码进行交互式问答,AI 会自主搜索代码、读取文件来回答问题,支持流式输出。

这样一来,你可以快速学会任何开源项目,哪怕面对几万行代码的仓库,也完全不虚。

方案设计

如果你完全没有任何技术基础,可以让 AI 帮你完成方案设计。

但这里为了节省时间和 tokens,我直接告诉 AI 怎么做。

项目采用前后端分离架构:

  • 后端用 Python FastAPI + LangChain + SQLite
  • 前端用 Vue 框架
  • AI 能力对接 DeepSeek V4 的 API

AI 分析和 AI 问答能力的实现还是有点小技巧的,如果一个代码仓库有几万行,难道要全部扔给 AI 自己去分析么?

我的思路是, 采用 AI 工具调用(Tool Use)的方式,给 AI 提供读取文件、搜索代码、获取仓库结构等工具,剩下的交给 AI 自己判断该看哪些文件、该怎么组织答案。这也是 DeepSeek V4 专门优化过的 Agentic 场景。

环境准备

Codex 配置

打开 Codex,首先确认模型列表里有 GPT-5.5。如果看不到,大概率是账号的问题,可能需要开通更高级的会员,我这里用的是 Plus 会员。

可以看到界面上已经有了 GPT-5.5 模型选项,还支持调节智能程度(低 / 中 / 高 / 超高),我选择「高」。

左下角进入设置,把工作模式切换为「用于编程」,这样 AI 的回复会更专业、更适合开发场景:

安装 AI 扩展

Codex 的 AI 扩展主要包括三类:

  • MCP 服务,用于连接外部工具连接
  • Agent Skills 技能包,让 AI 学会特定的专业技能
  • Plugins 插件,给 AI 增加更多能力

官方自带了一些内置的插件和技能,比如 Computer Use、Browser Use、PDF 处理、演示文稿编辑等:

不过这次项目需要的几个扩展,Codex 默认没有,得自己安装。

我们需要下面 3 个扩展:

  1. Firecrawl:联网搜索和网页抓取,让 AI 能获取最新的技术信息
  2. Context7:查询最新的技术文档和 API 用法,减少 AI 瞎编的情况
  3. UI UX Pro Max:前端美化技能,让生成的页面更有设计感

你可以在 Codex 设置里手动添加 MCP 服务:

但是,要手动填写一堆参数,真特么麻烦啊!

虽然也可以直接编辑 ~/.codex/config.toml 配置文件来添加 MCP 服务,但还是很麻烦。

这点上 Codex 的体验不如 Copilot 和 Cursor 的可视化安装,Copilot 甚至直接把 MCP 集成到了 VSCode 扩展市场里,一键搜索安装就行。

好在我们可以换一种方式,用每个 AI 服务提供的命令来快速安装。

1、安装 Firecrawl

Firecrawl 是一个联网搜索和网页抓取工具,能让 AI 在开发前先搜索最新的技术信息和文档。我们的项目需要它来查询 DeepSeek V4 的最新 API 用法。

打开终端,输入下列命令:

bash 复制代码
npx -y firecrawl-cli@latest init --all --browser

执行后,会自动打开浏览器,要在弹出的页面中点击授权:

安装完成后,会自动注册 12 个相关技能:

在 Codex 的技能管理中,就能看到新添加的 Firecrawl 相关技能了:

2、安装 Context7

Context7 是一个技术文档查询工具,让 AI 能获取到各种框架和库的最新官方文档,避免用过时的 API 写代码。

先在终端输入一行命令来安装:

bash 复制代码
npx ctx7@latest setup

它会问是安装 MCP 服务还是 CLI + Skills,这里我选择 CLI + Skills。你会发现,现在越来越多工具已经从 MCP 转向 CLI + Skills 的方式了:

同样在弹出的网页中授权,不用自己获取和输入 API Key,太方便了!

然后选择要给哪个 AI 编程工具安装,我选择为 Codex 安装:

安装成功:

在 Codex 中确认已安装的技能:

当然,你也可以选择安装 MCP Server 的方式:

安装后,在 Codex 的 MCP 服务器设置里,就能看到 Context7 MCP 了,这不比自己手动填参数方便多了?

3、安装 UI UX Pro Max

这是一个前端美化技能包,能让 AI 生成的页面更有设计感,不会有一大堆的 Emoji。

输入一行命令:

bash 复制代码
uipro init

选择为 Codex 安装技能:

安装成功:

在 Codex 的技能管理中,能看到新技能:

至此,环境准备完成!下次开发项目时,就不用再重复准备了~

开发

新建一个 project-helper 项目文件夹,在 Codex 中打开:

然后输入提示词。这里分享一下我实际用的提示词,给大家参考:

markdown 复制代码
## 角色

你是一个全栈工程师,擅长 Python + FastAPI + LangChain 开发。

## 任务

开发一个叫 project-helper(项目学习助手)的 Web 应用,帮助用户快速读懂任意开源项目的源码,傻子也能懂。

用户输入一个 GitHub 仓库地址,系统自动克隆项目并分析源码,生成一份通俗易懂的完整分析报告,涵盖项目概述、技术栈、目录结构、核心模块、数据流、设计模式、阅读建议等。分析过程实时推送进度,已分析过的项目自动缓存,无需重复分析。

用户还可以针对源码进行交互式问答,给 Agent 提供读取文件、搜索代码等工具,让 AI 自主查找代码来回答问题,支持流式输出。

## 技术栈

- 后端:Python FastAPI + LangChain + SQLite + 对接 DeepSeek V4 模型
- 前端:Vue,前后端分离

## 要求

1. 页面需要阅读舒适,具有科技感,代码块有语法高亮,使用 UI UX Pro Max 技能美化页面
2. 开发前,先通过 Firecrawl 联网搜索信息,通过 Context7 查询最新技术文档和用法
3. 必须生成完整可运行的代码,每步完成后必须自主测试验证

简单解读一下这段提示词的几个要点:

  • 角色定义 放在最前面,让 AI 进入全栈工程师的状态
  • 任务描述 用自然语言把需求讲清楚
  • 技术栈 只列关键选型,让 AI 自己决定具体实现方案
  • 最后两条要求是关键,让 AI 先查文档再写代码,避免瞎编写法;让 AI 开发完后自主测试,减少翻车

模型我选择 GPT-5.5,智能程度选「高」,权限给完全访问(主要图个省事儿):

注意,如果你想让 AI 测试得更完整,可以先获取好 DeepSeek 的 API Key 并直接写在提示词里。否则没有 API Key,AI 是没法完成大模型调用测试的。

把上述提示词发送给 AI,接下来就是漫长的等待了。

我这次等了 9 分钟,这期间一直在做提肛,有了 AI 编程后运动量也拉上来了~

AI 生成了完整的前端和后端项目代码,还自动写好了项目文档:

点击右上角可以查看生成的所有代码文件,总共 19 个文件、1644 行代码:

点击右上角查看项目概览,可以看到进度、生成结果、信息来源等。

注意看「来源」那栏,我们提供的 3 个技能 AI 都用上了。Firecrawl 用来搜索信息,UI UX Pro Max 用来美化页面,Context7 用来查文档:

感兴趣的同学可以看下 AI 生成的核心代码。比如问答模块利用 LangChain 实现了一个能调用 read_file(读取文件)、grep_code(搜索代码)、repo_map(获取仓库结构)这 3 个工具的 Agent,AI 会自主决定调用哪些工具来回答用户的问题。

测试验证

接下来需要获取 DeepSeek 的 API Key,进入 DeepSeek 开放平台,创建 API Key,记得不要泄露哦!

大家在使用某个 AI 大模型时,记得要关注一下价格。比如目前 DeepSeek 的 V4-Flash 百万 tokens 输入只要 1 元、输出 2 元;V4-Pro 输入 3 元、输出 6 元(限时 2.5 折优惠到 5 月 5 号)。缓存命中的话更便宜,V4-Flash 输入低至 0.02 元/百万 tokens。

但是 DeepSeek 目前还没有 Coding Plan,不太建议拿它来 AI 编程,估计消耗的 tokens 会让很多同学吃不消。但是用它来做 AI 应用的大脑非常合适,性价比很高。

根据 AI 给出的指引,在 Codex 中打开终端,设置环境变量,把 API Key 改为你自己的:

bash 复制代码
export DEEPSEEK_API_KEY=你的_key
export DEEPSEEK_MODEL=deepseek-v4-pro

不过这种 export 方式是临时的,终端一关就没了。

更好的做法是让 AI 搞一个环境变量配置文件,我们手动填写就行。

AI 很快完成了任务,新增了 .env.env.example 环境变量文件:

注意,如果你的项目要开源,一定记得在 .gitignore 中忽略 .env 文件,防止 API Key 泄露到 GitHub 上。

然后直接在编辑器中打开 .env 文件,把 API Key 填进去:

配置完环境变量后,让 AI 重启项目:

接下来人工测试一下。打开网页,输入一个 GitHub 仓库地址,比如我之前带大家开发的 AI 零代码应用生成平台

虽然页面的布局和风格中规中矩,但功能是完全正常的。DeepSeek V4 生成的分析结果还挺靠谱的,包含了项目概述、技术栈分析:

还有核心模块详解、数据流分析、新手阅读建议等等,内容是准确的,生成速度也比较快:

再来测试下源码问答功能,问它:项目用了哪些设计模式?

AI 调用了工具自己去翻代码,很快就列举出来了,包括门面模式、策略模式等,每个模式都标注了对应的源码文件路径:

核心功能测试没问题。但如果项目要正式上线,还要测试一堆边界条件,比如仓库不存在怎么办?网络断了会不会崩?缓存命中的逻辑对不对?

一个个手动测太麻烦了,干脆直接让 AI 帮忙。

Codex 内置了 Browser Use 插件,输入 @Browser Use 使用插件,让 AI 自主测试:

markdown 复制代码
自主测试所有功能,出了问题自动修复,确保所有功能正常可用

可以看到 AI 在 Codex 内部打开了一个浏览器,它会自己点击页面、输入仓库地址、查看分析结果、测试问答功能,全程自主操作。这期间我又做了一会儿提肛,提麻了。

等了大概 9 分钟,AI 完成了端到端的自主测试,还修复了好几个它自己发现的 Bug:

至此项目就开发完了,是不是很简单?

你还可以继续让 AI 优化前端布局、给报告中增加 Mermaid 流程图、支持导出报告文件等等,发挥想象力自由扩展吧~

我的感受

最后聊聊我用 Codex、GPT-5.5 和 DeepSeek V4 的真实感受。

先说 Codex,Codex 的界面主打一个简洁,第一眼看上去甚至不像 AI 编程工具,更像个 AI 聊天助手。但功能其实比较完整,比如 MCP 和 Skills 扩展、插件市场、自动化、Git 集成、Browser Use、Computer Use,AI 编程所需的工程能力基本都具备了。

不过缺点也很明显。默认可用的模型有限,不像 Cursor 和 Copilot 原生就整合了 Claude、GPT、Gemini 各种模型随便切。易用性也差了一些,从 MCP 配置那里大家应该已经感受到了。Copilot 可以直接在扩展市场一键搜索安装 MCP,Cursor 也支持可视化编辑 JSON 配置,Codex 这边还得自己折腾命令行或者手写 TOML。

再说说 GPT-5.5 模型。有一说一,我测了几个全栈项目,并没有明显感受到 GPT-5.5 和 Claude Opus 模型的差距。只要提示词到位,基本都能一把梭全栈项目的前端和后端,而且核心业务流程大概率一次性跑通。前端表现嘛,中规中矩,虽然实现了响应式,但 UI 没有特别惊艳的地方。。。

再看看 GPT-5.5 的成本。以开发前面这个项目为例,共消耗了 13 万 tokens,上下文用了 50%。Codex 桌面端目前上下文容量是 258K,开发简单的全栈项目没问题,但复杂工程项目可能会有压力。

我目前开的是 GPT Plus 会员,一个月 20 刀(150 元左右),每 5 小时和每周有限额。做完这个项目,5 小时的额度基本就用完了,不算扩展功能的话,1 周差不多能做 5 个完整项目。

最后说说 DeepSeek V4。

我们团队之前的业务有接入 DeepSeek V3,也在带大家做的项目中用过 V3。这次把 V4 接到业务里,生成速度还是挺快的,效果比 V3 提升明显,尤其是对代码的理解和分析能力。而且有了 100 万 tokens 的超长上下文支持,让我们可以做更重的 AI 应用,比如深度研究、复杂项目源码的全局分析等等。

看一下实际的 API 消耗,测试过程中用了 27 次请求,消耗了 5 万多 tokens,花费 0.15 元。按正常用户使用量算,一天 1000 次请求大约消耗 5.5 元,性价比很高。

总的来说,后续我不太会继续用 Codex 来做日常 AI 编程,做复杂项目时会选择 GPT-5.5 或 Claude Opus 模型,但开发 AI 应用时会优先对接 DeepSeek V4 的 API,便宜好用。


OK 就分享到这里,本文会收录到我免费开源的 《Vibe Coding 零基础入门教程》,上千张图、几十万字,带你从 0 开始快速学会 AI 编程,做出自己的产品、跑通变现全流程,一次拿捏。

开源指路:https://github.com/liyupi/ai-guide

我是鱼皮,持续分享 AI 编程干货。觉得有用的话记得点赞收藏和关注,也欢迎在评论区聊聊:你现在最常用哪个 AI 编程工具?觉得 GPT-5.5 的 DeepSeek-V4 怎么样?

相关推荐
爱吃的小肥羊1 小时前
从注册到订阅再到防封号,国内用 Claude 的完整避坑手册(2026 最新)
aigc·ai编程
熊猫钓鱼>_>1 小时前
AR游戏的“轻”与“深”:当智能体接管眼镜,游戏逻辑正在发生什么变化?
人工智能·游戏·ai·ar·vr·game·智能体
小虎AI生活2 小时前
龙虾的便利 + ima 的记忆 = 这套组合才是完整的
ai编程
ngpaxm_0292 小时前
机器学习平台
编程
mvvovk_8262 小时前
Redis 热点 Key 自动检测方案
编程
OpenTiny社区2 小时前
GenUI SDK 生成式UI:六大开发特性详解,适配多种业务场景
前端·github·ai编程
索西引擎2 小时前
【实践】Ollama 本地大模型和云端模型的安装使用
ai
MClink2 小时前
Claude Code 和 Claude Desktop:一个搞清两个 AI 助手
ai
dggcad_0812 小时前
Rust 泛型系统的底层逻辑
编程