啥也不会的情况下完成整个项(bi)目(she)指南
第一步:明确项目目标与技术选型
首先,你需要搞清楚:
- 你要干什么?
- 需要怎么做才比较合适?
- 用什么技术去做?
- 做到一个什么程度?
使用AI进行初步交流与规划
随便找一个AI聊一下,不一定非要用我(Gemini)一样的,主要是和AI交流技术细节、项目目标等信息。之后将总结好的内容生成一个 PROJECT_PLAN.md
的Markdown文件,放在你的项目文件中 。

示例中的项目计划: 本项目旨在建立一个"漫步时尚广场"的个人项目,即一个电子零售平台的后台编写和设计。
- 项目挑战: 个人实训项目。
- 参考: 数据处理和信息验证。
- 技术选型: HTML、CSS、JavaScript、Web前端设计。
第二步:选择合适的AI工具
你可以选择使用 Cursor 或 GitHub Copilot。GitHub Copilot 对学生是免费的,而且这两者都支持 Agent 模式关于如何使用,后续再详细说明。

微软推荐的模型选择: 在实际开发中,要注重效率,不要只选择最强的模型。
- 快速编码 (Fast coding) 任务,推荐使用:
- GPT-4o
- Claude Sonnet 3.5
- Claude Sonnet 3.7
- Gemini 2.0 Flash
- 推理/规划 (Reasoning/planning) 任务,推荐使用:
- Claude Sonnet 3.7 Thinking
- o1
- o3-mini
注意:
- 在
chat mode
下,可用模型可能有所不同。在agent mode
下,模型列表会限制为支持工具调用的模型。 - Copilot 中可用的模型列表会随着时间变化。
上面都是微软推荐的模型选择,在实际开发中我们需要注意开发的效率,不能说哪个模型强,就一直去使用什么模型。一般的架构性的问题,或者涉及到大量调整的,选用比较强大的模型,其他的小文件小函数,随便找个写了得了。
后续就准备开始进行项目的构建了。
第三步:创建和配置 Instruction files
这是微软的建议,也是为什么前面建议我们使用 Markdown 去收集项目信息。你需要将项目要求按照微软的建议,在项目中创建对应的文件夹并按照相应名称命名。

- 你可以将自定义指令存储在工作区或仓库中的
.github/copilot-instructions.md
文件中,并描述你的编码实践、首选技术和项目要求 [cite: 4]。 - VS Code 会自动将来自
.github/copilot-instructions.md
文件的指令包含在每个聊天请求中,并将其应用于生成代码 [cite: 4]。 - 要使用
.github/copilot-instructions.md
文件,需要将github.copilot.chat.codeGeneration.useInstructionFiles
设置为true
[cite: 4]。
这些文件得按照他们的要求去敲一下,不然天知道写出来的是什么。 哦对还得敲个plan丢里面。后面就直接开始GitHub Copilot Agent去开始写了。

第四步:开始项目构建与开发
准备好以上步骤后,就可以直接开始使用 GitHub Copilot Agent 来进行代码编写了。
在开发过程中:
- 在 VS Code 中,右侧窗口可以进行模型的选择和构建。
- 对于一般的架构性问题,或者涉及到大量调整的,选用比较强大的模型。
- 其他的小文件小函数,随便找个模型写就行。
- 个人倾向: Anthropic 和 Google 的模型,一个专攻代码,一个上下文理解能力好,上下文长度长。
以下是一些简单的模型对比:
模型名称 | 生成速度 | 上下文理解 | 代码质量 | 解决复杂问题的能力 |
---|---|---|---|---|
Claude 3.5 Sonnet | 快速响应,比Claude 3 Opus快两倍。 | 200K token 上下文窗口,能保持长篇文本的连贯性。 | 在代码任务、编写、调试和优化方面表现出色,内部编码评估中解决64%的问题。 | 强大的推理能力,擅长理解复杂背景和细微指令,在处理复杂问题和分析信息时表现出更强的推理能力。 |
Claude 3.7 Sonnet | 标准模式下快速响应,在"Extended Thinking"模式下会花费更多时间进行深度思考。 | 能理解细微指令和上下文,提供更长的输出容量(比3.5 Sonnet长15倍)。 | 在编码方面处于领先地位,尤其擅长代码变更规划和全栈更新,达到 SWE-bench Verified 70.3%。 | 首个混合推理模型,可在标准模式和深度思考模式间切换,擅长处理复杂数据并产生深入分析。 |
Claude 3.7 Sonnet Thinking | 强调深度思考,因此在需要深度分析时响应速度会慢一些。 | 旨在长时间保持上下文,特别是在多步推理任务中。 | 专注于解决真实世界的编码任务,如错误修复、特性开发和大规模重构,能生成高质量生产代码。 | 通过多步推理和自我反思来解决复杂问题,尤其在数学、物理、编码和指令遵循方面表现出色,可调节"思考预算"。 |
Claude Sonnet 4 | 速度与性能平衡,适用于高吞吐量用例,提供即时反馈。 | 适用于需要快速响应和高效研究的场景,能对多个数据源进行聚焦分析。 | 增强了日常开发任务性能,如代码审查、错误修复、API集成和特性开发。 | 适用于高容量任务,如代码审查和错误修复。 |
Gemini 2.0 Flash | 旨在实现速度和效率,适合快速代码生成和补全。 | 支持高达100万token的上下文窗口,能处理大型文件和对话。 | 可生成和执行代码,擅长处理多种编程语言和复杂代码逻辑。 | 擅长推理密集型任务,如数学问题解决和科学分析,能够显示其思维过程。 |
Gemini 2.5 Pro (Preview) | 快速响应,在复杂任务中表现出色。 | 支持高达100万token的上下文窗口,能够探索大量数据集。 | 专注于代码生成和理解,在Web开发任务中轻松生成代码,可生成交互式模拟和高级编码。 | 最先进的推理模型,能解决复杂问题,通过推理思考后再响应,提高了性能和准确性。 |
GPT-4.1 | 相比GPT-4o在某些编码任务上可能更快,但以深度为代价。 | 100万token上下文窗口,强调长上下文处理。 | 显著优于GPT-4o在代理式编码任务、前端编码、减少冗余修改和可靠遵循差异格式等方面,SWE-bench Verified 54.6%。 | 强调在复杂编程逻辑、架构考量和维持一致编码标准方面的深度理解。 |
GPT-4o | 比之前的GPT-4模型快2-3倍,强调效率和更快的响应时间。 | 128,000 token上下文窗口,能处理更长的对话。 | 适合生成样板代码、提供快速语法参考、提供初步问题解决方法,但可能在复杂编程逻辑和架构方面表现一般。 | 具有强大的多模态能力和更细致的自然语言理解,适用于实时应用和高吞吐量任务。 |
o1 (Preview) | 响应生成时间较长,因为需要更长时间进行"思考"。 | 128,000 token上下文窗口。 | 在代码优化、测试用例生成、自动化代码审查和多步工作流执行方面表现出色。 | 专注于复杂任务,如科学、数学和编码,通过多步推理和自我纠错来解决问题。 |
o3-mini | 旨在更快、更便宜,但具体数据有限。 | 支持工具使用(如网络搜索、文件分析)。 | 能够处理视觉输入,并用Python分析数据。 | 能进行深度推理,即使图像模糊或低质量也能解释。 |
o4-mini (Preview) | 比o3更快、更便宜。 | 200,000 token上下文窗口。 | 在Codeforces和SWE-Bench Verified等编码基准测试中表现出色,支持Python、图像分析和网络浏览工具。 | 相比o3-mini有更强的多模态推理能力,适用于多步任务,但可能比o3慢一些。 |
关于调试和问题解决:
反正差不多就这样了,有问题就直接复制了在开一个聊天去问问什么问题如何修改就好了,这个主要是需要使用长上下文模型或者推理模型去处理,记得切换ask不要放在agent问。