掘金 人工智能 06月02日 19:08
尝试GitHub Copilot Agent完成完整的项目
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文为新手提供了使用AI工具完成编程项目的详细指南。从明确项目目标、技术选型,到选择合适的AI工具如Cursor或GitHub Copilot,再到创建和配置指令文件,最后进行项目构建与开发,文章逐步引导读者。特别强调了微软推荐的模型选择,并提供了不同模型在快速编码和推理/规划任务中的应用建议。此外,文章还分享了关于调试和问题解决的经验,帮助新手更好地利用AI工具。

💡项目启动:首先,明确项目目标、所需技术以及预期成果。利用AI进行初步交流与规划,生成项目计划文件,为后续开发奠定基础。

💻工具选择:推荐使用Cursor或GitHub Copilot等AI编程助手。GitHub Copilot对学生免费,两者均支持Agent模式,能够有效提升编码效率。

📝指令配置:根据微软的建议,创建.github/copilot-instructions.md文件,存储自定义指令,帮助VS Code将指令包含在每个聊天请求中,从而影响代码生成。

⚙️模型选择:根据任务类型选择合适的AI模型。例如,GPT-4o、Claude Sonnet 3.5等适用于快速编码;Claude Sonnet 3.7 Thinking、o1等适用于推理/规划任务。

🛠️开发实践:在VS Code中,利用GitHub Copilot Agent进行代码编写。针对架构性问题,选用较强大的模型;小文件小函数,可选择其他模型。遇到问题,可复制代码在聊天中寻求解决方案。

啥也不会的情况下完成整个项(bi)目(she)指南

第一步:明确项目目标与技术选型

首先,你需要搞清楚:

    你要干什么?需要怎么做才比较合适?用什么技术去做?做到一个什么程度?

使用AI进行初步交流与规划

随便找一个AI聊一下,不一定非要用我(Gemini)一样的,主要是和AI交流技术细节、项目目标等信息。之后将总结好的内容生成一个 PROJECT_PLAN.md 的Markdown文件,放在你的项目文件中 。

示例中的项目计划:本项目旨在建立一个“漫步时尚广场”的个人项目,即一个电子零售平台的后台编写和设计。

第二步:选择合适的AI工具

你可以选择使用 Cursor 或 GitHub Copilot。GitHub Copilot 对学生是免费的,而且这两者都支持 Agent 模式关于如何使用,后续再详细说明。

微软推荐的模型选择:在实际开发中,要注重效率,不要只选择最强的模型。

注意:

上面都是微软推荐的模型选择,在实际开发中我们需要注意开发的效率,不能说哪个模型强,就一直去使用什么模型。一般的架构性的问题,或者涉及到大量调整的,选用比较强大的模型,其他的小文件小函数,随便找个写了得了。

后续就准备开始进行项目的构建了。

第三步:创建和配置 Instruction files

这是微软的建议,也是为什么前面建议我们使用 Markdown 去收集项目信息。你需要将项目要求按照微软的建议,在项目中创建对应的文件夹并按照相应名称命名。

这些文件得按照他们的要求去敲一下,不然天知道写出来的是什么。哦对还得敲个plan丢里面。后面就直接开始GitHub Copilot Agent去开始写了。

第四步:开始项目构建与开发

准备好以上步骤后,就可以直接开始使用 GitHub Copilot Agent 来进行代码编写了。

在开发过程中:

以下是一些简单的模型对比:

模型名称生成速度上下文理解代码质量解决复杂问题的能力
Claude 3.5 Sonnet快速响应,比Claude 3 Opus快两倍。200K token 上下文窗口,能保持长篇文本的连贯性。在代码任务、编写、调试和优化方面表现出色,内部编码评估中解决64%的问题。强大的推理能力,擅长理解复杂背景和细微指令,在处理复杂问题和分析信息时表现出更强的推理能力。
Claude 3.7 Sonnet标准模式下快速响应,在“Extended Thinking”模式下会花费更多时间进行深度思考。能理解细微指令和上下文,提供更长的输出容量(比3.5 Sonnet长15倍)。在编码方面处于领先地位,尤其擅长代码变更规划和全栈更新,达到 SWE-bench Verified 70.3%。首个混合推理模型,可在标准模式和深度思考模式间切换,擅长处理复杂数据并产生深入分析。
Claude 3.7 Sonnet Thinking强调深度思考,因此在需要深度分析时响应速度会慢一些。旨在长时间保持上下文,特别是在多步推理任务中。专注于解决真实世界的编码任务,如错误修复、特性开发和大规模重构,能生成高质量生产代码。通过多步推理和自我反思来解决复杂问题,尤其在数学、物理、编码和指令遵循方面表现出色,可调节“思考预算”。
Claude Sonnet 4速度与性能平衡,适用于高吞吐量用例,提供即时反馈。适用于需要快速响应和高效研究的场景,能对多个数据源进行聚焦分析。增强了日常开发任务性能,如代码审查、错误修复、API集成和特性开发。适用于高容量任务,如代码审查和错误修复。
Gemini 2.0 Flash旨在实现速度和效率,适合快速代码生成和补全。支持高达100万token的上下文窗口,能处理大型文件和对话。可生成和执行代码,擅长处理多种编程语言和复杂代码逻辑。擅长推理密集型任务,如数学问题解决和科学分析,能够显示其思维过程。
Gemini 2.5 Pro (Preview)快速响应,在复杂任务中表现出色。支持高达100万token的上下文窗口,能够探索大量数据集。专注于代码生成和理解,在Web开发任务中轻松生成代码,可生成交互式模拟和高级编码。最先进的推理模型,能解决复杂问题,通过推理思考后再响应,提高了性能和准确性。
GPT-4.1相比GPT-4o在某些编码任务上可能更快,但以深度为代价。100万token上下文窗口,强调长上下文处理。显著优于GPT-4o在代理式编码任务、前端编码、减少冗余修改和可靠遵循差异格式等方面,SWE-bench Verified 54.6%。强调在复杂编程逻辑、架构考量和维持一致编码标准方面的深度理解。
GPT-4o比之前的GPT-4模型快2-3倍,强调效率和更快的响应时间。128,000 token上下文窗口,能处理更长的对话。适合生成样板代码、提供快速语法参考、提供初步问题解决方法,但可能在复杂编程逻辑和架构方面表现一般。具有强大的多模态能力和更细致的自然语言理解,适用于实时应用和高吞吐量任务。
o1 (Preview)响应生成时间较长,因为需要更长时间进行“思考”。128,000 token上下文窗口。在代码优化、测试用例生成、自动化代码审查和多步工作流执行方面表现出色。专注于复杂任务,如科学、数学和编码,通过多步推理和自我纠错来解决问题。
o3-mini旨在更快、更便宜,但具体数据有限。支持工具使用(如网络搜索、文件分析)。能够处理视觉输入,并用Python分析数据。能进行深度推理,即使图像模糊或低质量也能解释。
o4-mini (Preview)比o3更快、更便宜。200,000 token上下文窗口。在Codeforces和SWE-Bench Verified等编码基准测试中表现出色,支持Python、图像分析和网络浏览工具。相比o3-mini有更强的多模态推理能力,适用于多步任务,但可能比o3慢一些。

关于调试和问题解决:

反正差不多就这样了,有问题就直接复制了在开一个聊天去问问什么问题如何修改就好了,这个主要是需要使用长上下文模型或者推理模型去处理,记得切换ask不要放在agent问。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI编程 GitHub Copilot 项目指南 技术选型 模型选择
相关文章