尝试GitHub Copilot Agent完成完整的项目

啥也不会的情况下完成整个项(bi)目(she)指南

第一步:明确项目目标与技术选型

首先,你需要搞清楚:

  1. 你要干什么?
  2. 需要怎么做才比较合适?
  3. 用什么技术去做?
  4. 做到一个什么程度?

使用AI进行初步交流与规划

随便找一个AI聊一下,不一定非要用我(Gemini)一样的,主要是和AI交流技术细节、项目目标等信息。之后将总结好的内容生成一个 PROJECT_PLAN.md 的Markdown文件,放在你的项目文件中 。

示例中的项目计划: 本项目旨在建立一个"漫步时尚广场"的个人项目,即一个电子零售平台的后台编写和设计。

  • 项目挑战: 个人实训项目。
  • 参考: 数据处理和信息验证。
  • 技术选型: HTML、CSS、JavaScript、Web前端设计。

第二步:选择合适的AI工具

你可以选择使用 Cursor 或 GitHub Copilot。GitHub Copilot 对学生是免费的,而且这两者都支持 Agent 模式关于如何使用,后续再详细说明。

微软推荐的模型选择: 在实际开发中,要注重效率,不要只选择最强的模型。

  • 快速编码 (Fast coding) 任务,推荐使用:
    • GPT-4o
    • Claude Sonnet 3.5
    • Claude Sonnet 3.7
    • Gemini 2.0 Flash
  • 推理/规划 (Reasoning/planning) 任务,推荐使用:
    • Claude Sonnet 3.7 Thinking
    • o1
    • o3-mini

注意:

  • chat mode 下,可用模型可能有所不同。在 agent mode 下,模型列表会限制为支持工具调用的模型。
  • Copilot 中可用的模型列表会随着时间变化。

上面都是微软推荐的模型选择,在实际开发中我们需要注意开发的效率,不能说哪个模型强,就一直去使用什么模型。一般的架构性的问题,或者涉及到大量调整的,选用比较强大的模型,其他的小文件小函数,随便找个写了得了。

后续就准备开始进行项目的构建了。

第三步:创建和配置 Instruction files

这是微软的建议,也是为什么前面建议我们使用 Markdown 去收集项目信息。你需要将项目要求按照微软的建议,在项目中创建对应的文件夹并按照相应名称命名。

  • 你可以将自定义指令存储在工作区或仓库中的 .github/copilot-instructions.md 文件中,并描述你的编码实践、首选技术和项目要求 [cite: 4]。
  • VS Code 会自动将来自 .github/copilot-instructions.md 文件的指令包含在每个聊天请求中,并将其应用于生成代码 [cite: 4]。
  • 要使用 .github/copilot-instructions.md 文件,需要将 github.copilot.chat.codeGeneration.useInstructionFiles 设置为 true [cite: 4]。

这些文件得按照他们的要求去敲一下,不然天知道写出来的是什么。 哦对还得敲个plan丢里面。后面就直接开始GitHub Copilot Agent去开始写了。

第四步:开始项目构建与开发

准备好以上步骤后,就可以直接开始使用 GitHub Copilot Agent 来进行代码编写了。

在开发过程中:

  • 在 VS Code 中,右侧窗口可以进行模型的选择和构建。
  • 对于一般的架构性问题,或者涉及到大量调整的,选用比较强大的模型。
  • 其他的小文件小函数,随便找个模型写就行。
  • 个人倾向: Anthropic 和 Google 的模型,一个专攻代码,一个上下文理解能力好,上下文长度长。

以下是一些简单的模型对比:

模型名称 生成速度 上下文理解 代码质量 解决复杂问题的能力
Claude 3.5 Sonnet 快速响应,比Claude 3 Opus快两倍。 200K token 上下文窗口,能保持长篇文本的连贯性。 在代码任务、编写、调试和优化方面表现出色,内部编码评估中解决64%的问题。 强大的推理能力,擅长理解复杂背景和细微指令,在处理复杂问题和分析信息时表现出更强的推理能力。
Claude 3.7 Sonnet 标准模式下快速响应,在"Extended Thinking"模式下会花费更多时间进行深度思考。 能理解细微指令和上下文,提供更长的输出容量(比3.5 Sonnet长15倍)。 在编码方面处于领先地位,尤其擅长代码变更规划和全栈更新,达到 SWE-bench Verified 70.3%。 首个混合推理模型,可在标准模式和深度思考模式间切换,擅长处理复杂数据并产生深入分析。
Claude 3.7 Sonnet Thinking 强调深度思考,因此在需要深度分析时响应速度会慢一些。 旨在长时间保持上下文,特别是在多步推理任务中。 专注于解决真实世界的编码任务,如错误修复、特性开发和大规模重构,能生成高质量生产代码。 通过多步推理和自我反思来解决复杂问题,尤其在数学、物理、编码和指令遵循方面表现出色,可调节"思考预算"。
Claude Sonnet 4 速度与性能平衡,适用于高吞吐量用例,提供即时反馈。 适用于需要快速响应和高效研究的场景,能对多个数据源进行聚焦分析。 增强了日常开发任务性能,如代码审查、错误修复、API集成和特性开发。 适用于高容量任务,如代码审查和错误修复。
Gemini 2.0 Flash 旨在实现速度和效率,适合快速代码生成和补全。 支持高达100万token的上下文窗口,能处理大型文件和对话。 可生成和执行代码,擅长处理多种编程语言和复杂代码逻辑。 擅长推理密集型任务,如数学问题解决和科学分析,能够显示其思维过程。
Gemini 2.5 Pro (Preview) 快速响应,在复杂任务中表现出色。 支持高达100万token的上下文窗口,能够探索大量数据集。 专注于代码生成和理解,在Web开发任务中轻松生成代码,可生成交互式模拟和高级编码。 最先进的推理模型,能解决复杂问题,通过推理思考后再响应,提高了性能和准确性。
GPT-4.1 相比GPT-4o在某些编码任务上可能更快,但以深度为代价。 100万token上下文窗口,强调长上下文处理。 显著优于GPT-4o在代理式编码任务、前端编码、减少冗余修改和可靠遵循差异格式等方面,SWE-bench Verified 54.6%。 强调在复杂编程逻辑、架构考量和维持一致编码标准方面的深度理解。
GPT-4o 比之前的GPT-4模型快2-3倍,强调效率和更快的响应时间。 128,000 token上下文窗口,能处理更长的对话。 适合生成样板代码、提供快速语法参考、提供初步问题解决方法,但可能在复杂编程逻辑和架构方面表现一般。 具有强大的多模态能力和更细致的自然语言理解,适用于实时应用和高吞吐量任务。
o1 (Preview) 响应生成时间较长,因为需要更长时间进行"思考"。 128,000 token上下文窗口。 在代码优化、测试用例生成、自动化代码审查和多步工作流执行方面表现出色。 专注于复杂任务,如科学、数学和编码,通过多步推理和自我纠错来解决问题。
o3-mini 旨在更快、更便宜,但具体数据有限。 支持工具使用(如网络搜索、文件分析)。 能够处理视觉输入,并用Python分析数据。 能进行深度推理,即使图像模糊或低质量也能解释。
o4-mini (Preview) 比o3更快、更便宜。 200,000 token上下文窗口。 在Codeforces和SWE-Bench Verified等编码基准测试中表现出色,支持Python、图像分析和网络浏览工具。 相比o3-mini有更强的多模态推理能力,适用于多步任务,但可能比o3慢一些。

关于调试和问题解决:

反正差不多就这样了,有问题就直接复制了在开一个聊天去问问什么问题如何修改就好了,这个主要是需要使用长上下文模型或者推理模型去处理,记得切换ask不要放在agent问。

相关推荐
量子位几秒前
训练 MoE 足足提速 70%!华为只用了 3 招
华为·ai编程
量子位2 分钟前
Manus 新功能一手实测!10 分钟 8 页 PPT,网友:当前第一名没跑
ai编程
小磊哥er2 小时前
【前端AI实践】泛谈AI在前端领域的应用场景
前端·vue.js·ai编程
日升2 小时前
如何在 Chrome 136+ 用 browser-use 打开「带登录态」的浏览器
python·ai编程·trae
罗西尼3 小时前
Cursor + MCP 一键总结你的微信读书笔记
ai编程
罗西尼3 小时前
chatlog+MCP:一键总结微信聊天记录
ai编程
山茶君_nlefer3 小时前
cursor中成功调用“即梦AI”实现“编程+页面自由做”!真的酷!
aigc·ai编程·mcp
Goboy3 小时前
用 Trae 一键生成“水波纹按钮”,连 CSS 动画都不用自己写了!
ai编程·trae
Goboy3 小时前
用 Trae 打造创意 Loading 动画生成器:只需三个词,就能玩出花来!
ai编程·trae
Jooolin4 小时前
【三大前端语言之一】静态网页语言:HTML详解
前端·html·ai编程