AI-Coding概念全景
AI Coding 概念全景
概述
AI Coding(AI 辅助编程)是指利用大语言模型(LLM)及相关工具来辅助或自动化软件开发过程的技术范式。从 2022 年 GitHub Copilot 正式发布开始,AI 编程工具经历了从”代码补全”到”自主编程 Agent”的快速演进,深刻改变了软件开发的工作方式。
本文系统梳理 AI Coding 领域的核心概念、编程模式、基础技术、工具生态和方法论,适合作为入门和进阶的参考索引。
💡 提示: 阅读建议
本文是概念索引型笔记,建议结合 Prompt Engineering详解 和 Agent架构模式详解 一起阅读。
一、核心理念
1.1 Vibe Coding(氛围编程)
由 Tesla / OpenAI 前 AI 总监 Andrej Karpathy 于 2025 年 2 月提出的概念。
核心思想:开发者不再逐行编写代码,而是用自然语言描述需求,完全依赖 AI 生成代码,”凭感觉”(vibe)推进开发。
典型工作流:
- 用口语化的自然语言描述功能需求
- AI 生成完整代码
- 运行代码,观察结果
- 遇到报错 → 直接把错误信息丢给 AI 修复
- 反复迭代直到功能完成
特点:
- 开发者角色从”工程师”转变为”产品经理”
- 不需要深入理解代码实现细节
- 适合快速原型验证和个人项目
- 风险:代码质量难以保证,可能积累大量技术债务
⚠️ 警告: 注意
Vibe Coding 适合原型验证和个人项目,但在生产环境中需要谨慎使用,缺乏代码审查可能引入安全漏洞和性能问题。
1.2 Spec Coding(规范编程)
Vibe Coding 的对立面。在让 AI 写代码之前,先编写详细的技术规范文档(Spec),AI 严格按照规范执行。
核心思想:用结构化的规范约束 AI 的输出,确保生成的代码符合预期的架构、接口和行为。
典型工作流:
- 编写详细的需求规范(PRD / 技术设计文档)
- 定义接口契约(API Schema、类型定义)
- 明确约束条件(技术栈、编码规范、性能要求)
- 将规范作为 Prompt 上下文提供给 AI
- AI 按照规范生成代码
- 对照规范进行验证和审查
与 Vibe Coding 的对比:
| 维度 | Vibe Coding | Spec Coding |
|---|---|---|
| 前期投入 | 低,直接开始 | 高,需要编写规范 |
| 代码质量 | 不可控 | 可预期 |
| 适用场景 | 原型验证、个人项目 | 生产环境、团队协作 |
| 开发者角色 | 产品经理 | 架构师 |
| 可维护性 | 低 | 高 |
1.3 YOLO Coding(冒险编程)
比 Vibe Coding 更极端的风格。完全不审查 AI 生成的代码,直接部署上线,”You Only Live Once”。
特点:
- 完全信任 AI 输出,不做任何人工审查
- 追求极致的开发速度
- 高风险:可能引入严重的安全漏洞和 Bug
🔥 危险: 警告
YOLO Coding 在任何生产环境中都不推荐使用,仅适合一次性的实验项目或学习探索。
1.4 Plan-and-Execute(规划执行模式)
介于 Vibe Coding 和 Spec Coding 之间的务实风格。先让 AI 制定实施计划,人类审批后再执行。
典型工作流:
- 描述需求,让 AI 生成实施计划(Plan)
- 人类审查计划,提出修改意见
- 计划确认后,AI 按步骤执行(Execute)
- 每步完成后检查结果,必要时调整
代表实现:Cursor 的 Plan Mode、Claude Code 的 EnterPlanMode
1.5 AI 编程风格谱系
从”随性”到”严谨”,AI 编程风格形成一个连续的谱系:
1 | |
选择建议:根据项目性质选择合适的风格——个人实验用 Vibe,正式项目用 Plan-and-Execute 或 Spec。
1.6 Context Engineering(上下文工程)
比 Prompt Engineering 更进一步的概念。不仅关注单条提示词的质量,更关注如何系统性地为 AI 构建完整、准确的上下文环境。
核心要素:
- 代码上下文:让 AI 看到相关的代码文件、类型定义、依赖关系
- 项目上下文:技术栈、架构决策、编码规范(通过
CLAUDE.md等配置) - 历史上下文:相关的 Issue、PR、设计文档
- 领域上下文:业务规则、行业术语、领域模型
与 Prompt Engineering 的区别:
| 维度 | Prompt Engineering | Context Engineering |
|---|---|---|
| 关注点 | 单条提示词的措辞 | 整体信息环境的构建 |
| 范围 | 单次对话 | 跨对话、跨工具 |
| 手段 | 优化措辞和格式 | RAG、MCP、项目配置、工具链 |
| 目标 | 让 AI 理解当前任务 | 让 AI 理解整个项目 |
💡 提示: 趋势
随着 AI 编程工具的成熟,Context Engineering 正在成为比 Prompt Engineering 更重要的技能。好的上下文比好的提示词更能决定 AI 的输出质量。
1.7 AI Native Development(AI 原生开发)
一种从项目立项开始就将 AI 工具深度融入开发全流程的理念。
与传统开发的区别:
| 维度 | 传统开发 | AI 原生开发 |
|---|---|---|
| 需求分析 | 人工编写 PRD | AI 辅助生成需求文档 |
| 架构设计 | 人工设计 | AI 提供架构建议 |
| 编码实现 | 手动编写 | AI 生成 + 人工审查 |
| 测试 | 手动编写测试用例 | AI 自动生成测试 |
| 代码审查 | 人工 Review | AI Review + 人工确认 |
| 文档 | 手动编写 | AI 自动生成和维护 |
核心原则:AI 不是”附加工具”,而是开发流程的”基础设施”。
1.8 Human-in-the-Loop(人机协作模式)
指在 AI 自动化流程中保留人类决策节点的协作模式。
在 AI Coding 中的体现:
- 审批节点:AI 生成代码后,人类审查并决定是否采纳
- 纠偏机制:当 AI 偏离预期方向时,人类及时介入修正
- 关键决策:架构选型、安全相关代码等由人类最终决定
重要性:即使 AI 能力不断增强,Human-in-the-Loop 仍然是保证代码质量和安全性的关键机制。
二、编程模式
2.1 Copilot 模式(副驾驶模式)
AI 作为被动辅助角色,在开发者编写代码时实时提供补全和建议。
工作方式:
- 开发者主导编码,AI 实时提供行级/块级代码补全
- 开发者可以接受、修改或拒绝 AI 的建议
- AI 根据当前文件上下文和光标位置推断意图
代表产品:GitHub Copilot、Codeium、Tabnine
优势:
- 提升编码速度,减少重复劳动
- 开发者保持对代码的完全控制
- 学习曲线低,易于融入现有工作流
局限:
- 只能处理局部代码,缺乏全局视角
- 无法执行跨文件的复杂重构
- 被动响应,不能主动发现和解决问题
2.2 Agentic Coding(智能体编程)
AI 作为自主 Agent,能够独立规划和执行多步骤编程任务。
与 Copilot 模式的核心区别:
| 维度 | Copilot 模式 | Agentic Coding |
|---|---|---|
| 主动性 | 被动响应 | 主动规划执行 |
| 范围 | 单文件局部补全 | 跨文件全局操作 |
| 能力 | 代码补全 | 读写文件、执行命令、搜索代码 |
| 交互 | 实时内联建议 | 对话式任务驱动 |
| 自主性 | 低 | 高 |
典型能力:
- 自主读取和分析代码库结构
- 规划多步骤任务并逐步执行
- 调用终端执行命令(构建、测试、部署)
- 跨多个文件进行协调修改
- 自动修复错误并验证结果
代表产品:Claude Code、Cursor Agent Mode、Devin、Windsurf
ℹ️ 信息: 延伸阅读
关于 Agent 的架构原理,参见 Agent架构模式详解。
2.3 AI Pair Programming(AI 结对编程)
借鉴传统”结对编程”概念,由人类开发者与 AI 组成搭档共同完成开发任务。
与传统结对编程的对比:
- 传统:两个人类开发者,一人编码(Driver),一人审查(Navigator)
- AI 结对:人类担任 Navigator 角色(把控方向),AI 担任 Driver 角色(执行编码)
最佳实践:
- 人类负责需求拆解、架构决策和代码审查
- AI 负责代码生成、测试编写和重复性工作
- 保持持续对话,及时纠偏
三、基础技术概念
3.1 LLM(Large Language Model,大语言模型)
驱动 AI Coding 的核心技术。LLM 通过在海量代码和文本数据上训练,学会了理解和生成代码的能力。
主流代码模型:
| 模型 | 厂商 | 特点 |
|---|---|---|
| Claude | Anthropic | 长上下文、强推理、安全性高 |
| GPT-4o | OpenAI | 多模态、生态丰富 |
| Gemini | 超长上下文窗口 | |
| DeepSeek Coder | DeepSeek | 开源、代码能力强 |
| Codestral | Mistral | 专注代码生成 |
| Qwen Coder | 阿里 | 中文友好、开源 |
ℹ️ 信息: 延伸阅读
关于 LLM 的基础知识,参见 大模型学习路线。
3.2 Token(令牌)
LLM 处理文本的最小单位。代码和自然语言都会被拆分为 Token 序列后送入模型。
关键要点:
- 1 个英文单词 ≈ 1-2 个 Token
- 1 个中文字 ≈ 1-3 个 Token
- 代码中的符号、关键字各占不同数量的 Token
- Token 数量直接影响 API 调用成本和响应速度
- 输入 Token(Prompt)和输出 Token(Completion)分别计费
3.3 Context Window(上下文窗口)
模型单次对话能处理的最大 Token 数量,决定了 AI 能”看到”多少代码。
对 AI Coding 的影响:
- 窗口越大 → 能同时分析更多文件,理解项目全貌
- 窗口越小 → 只能处理局部代码,容易丢失上下文
- 当前主流模型上下文窗口:128K ~ 1M Token
实际意义:一个 128K Token 的窗口大约能容纳一个中型项目的核心代码文件。
3.4 Hallucination(幻觉)
AI 模型生成看似合理但实际上不正确或不存在的内容。在 AI Coding 中尤为危险。
代码幻觉的常见表现:
- 调用不存在的 API 或方法(如编造一个库的函数名)
- 引用不存在的包或依赖
- 生成语法正确但逻辑错误的代码
- 编造不存在的配置项或参数
- 给出过时的 API 用法(基于训练数据截止日期之前的版本)
应对策略:
- 始终验证 AI 生成的代码能否编译/运行
- 核实 AI 提到的 API 和库是否真实存在
- 对关键逻辑编写单元测试
- 使用 RAG 技术提供最新文档作为上下文
3.5 Prompt Injection(提示注入)
一种安全攻击手段,通过在输入中嵌入恶意指令,诱导 AI 模型执行非预期的操作。
在编程场景中的具体表现:
- 代码注释或字符串中隐藏恶意 Prompt,诱导 AI 生成不安全代码
- 用户输入中包含指令,让 AI Agent 执行危险的终端命令(如
rm -rf) - 通过精心构造的 Issue 或 PR 描述,操纵 AI Code Review 的判断
- 依赖包的 README 中嵌入指令,影响 AI 对该库的使用建议
应对策略:
- 对 AI Agent 的工具调用权限进行严格限制(沙箱执行)
- 不将未经过滤的用户输入直接拼接到 Prompt 中
- 对 AI 执行的高危操作(删除文件、执行命令)设置人工确认环节
3.6 Overconfidence(过度自信)
AI 模型对自己生成的错误内容表现出高度确信,不会主动表达不确定性。
在编程场景中的具体表现:
- 给出错误的代码解释时语气非常肯定,没有任何犹豫
- 推荐已废弃的 API 时不会提示”我不确定这是否仍然可用”
- 对复杂业务逻辑给出看似完整但实际遗漏边界条件的实现
- 被追问时可能编造理由来”证明”自己的错误答案
与 Hallucination 的区别:
- Hallucination 强调内容本身是虚构的
- Overconfidence 强调模型对错误内容的确信态度,让开发者更难察觉问题
应对策略:
- 不因 AI 语气肯定就跳过验证
- 对关键逻辑始终编写测试用例
- 主动要求 AI 列出”可能存在的风险点”
3.7 Context Window Limitation(上下文窗口限制)
虽然 3.3 节介绍了 Context Window 的基本概念,但在实际编程中,窗口限制带来的具体问题值得单独关注。
在编程场景中的具体表现:
- 长文件截断:大型代码文件无法完整放入上下文,AI 只能看到部分代码,导致修改不完整
- 跨文件遗忘:在多文件重构时,AI 处理后面的文件时可能”忘记”前面文件的修改细节
- 对话退化:长对话中早期的需求说明和约定逐渐被挤出窗口,AI 开始偏离最初的方向
- 依赖链断裂:无法同时看到完整的依赖调用链,导致接口不匹配
应对策略:
- 将大任务拆分为小的、独立的子任务
- 在长对话中定期重申关键约束和规范
- 利用项目级配置文件(
CLAUDE.md)持久化关键信息 - 使用 RAG 按需检索相关代码,而非一次性加载所有文件
3.8 Model Drift(模型漂移)
AI 模型在版本更新后行为发生变化,导致相同的 Prompt 产生不同的输出结果。
在编程场景中的具体表现:
- 同一段 Prompt 在模型更新前后生成的代码风格不一致
- 之前能正确处理的任务,模型更新后可能出错或输出格式改变
- 依赖特定模型行为的自动化工作流突然失效
- 团队成员使用不同模型版本,生成的代码风格不统一
应对策略:
- 在关键工作流中锁定模型版本(如指定
claude-opus-4-20250514) - 不过度依赖模型的特定输出格式,保持 Prompt 的鲁棒性
- 建立代码生成的验证测试,模型更新后自动回归验证
3.9 Code Entanglement(代码缠绕/纠缠)
AI 生成的代码与项目已有代码之间产生不必要的紧耦合,导致难以独立修改或移除。
在编程场景中的具体表现:
- AI 生成的新功能代码与已有模块产生隐式依赖,牵一发而动全身
- 多次让 AI 修改同一段代码后,逻辑层层嵌套,形成”补丁叠补丁”的混乱结构
- AI 为了快速实现功能,直接修改公共模块而非创建独立抽象,影响其他功能
- 不同对话中 AI 生成的代码之间存在冲突的设计假设
应对策略:
- 要求 AI 遵循单一职责原则,新功能尽量独立封装
- 定期审查 AI 生成代码的依赖关系
- 在 Prompt 中明确指出哪些模块不应被修改
3.10 Code Rot from AI(AI 代码腐化)
随着时间推移,AI 生成的代码因缺乏人类理解和维护而逐渐退化的现象。
在编程场景中的具体表现:
- 开发者不理解 AI 生成的代码逻辑,后续修改时引入 Bug
- AI 生成的”黑盒代码”无人敢动,逐渐成为系统中的”地雷区”
- 依赖的库版本过时,但没人清楚 AI 当初为什么选择这个库
- 缺少注释和文档,后续维护者无法理解设计意图
与传统 Code Rot 的区别:
- 传统代码腐化:开发者理解代码但疏于维护
- AI 代码腐化:从一开始就没有人真正理解这段代码
应对策略:
- 对 AI 生成的关键代码,要求附带设计说明
- 在接受 AI 代码前确保自己能理解其逻辑
- 建立代码所有权机制,明确每段代码的负责人
3.11 RAG(Retrieval-Augmented Generation,检索增强生成)
在生成回答前,先从外部知识库检索相关信息,再将检索结果作为上下文提供给模型,从而提升回答的准确性。
在代码场景的应用:
- 检索项目代码库,让 AI 理解项目结构和编码规范
- 检索最新的 API 文档,避免生成过时的代码
- 检索内部技术文档和设计规范
- 检索 Issue 和 PR 历史,理解变更背景
典型实现:
- Cursor 的
@codebase功能(索引整个项目) - Claude Code 的自动代码库搜索
- 自定义 RAG Pipeline(Embedding + 向量数据库)
ℹ️ 信息: 延伸阅读
关于 RAG 技术原理,参见 RAG技术详解 和 Advanced-RAG详解。
四、开发方法论
4.1 Prompt Engineering(提示工程)
通过精心设计的提示词/指令来引导 AI 生成更准确代码的技术。在 AI Coding 场景下,Prompt 质量直接决定代码质量。
编程场景下的 Prompt 技巧:
- 明确技术栈:指定语言、框架、版本(如”使用 TypeScript + React 18”)
- 提供上下文:给出相关的类型定义、接口、已有代码
- 约束输出格式:要求遵循特定编码规范或设计模式
- 分步拆解:将复杂需求拆分为多个小任务逐步完成
- 给出示例:提供期望的输入输出样例
ℹ️ 信息: 延伸阅读
详细内容参见 Prompt Engineering详解。
4.2 Zero-Shot / Few-Shot Coding
两种不同的 AI 编程策略,区别在于是否提供示例。
Zero-Shot(零样本):
- 不给任何示例,直接描述需求让 AI 生成代码
- 适合通用性强的任务(如”写一个快速排序”)
- 依赖模型自身的知识储备
One-Shot / Few-Shot(少样本):
- 提供 1 个或几个示例,让 AI 模仿风格和模式生成代码
- 适合需要遵循特定编码规范或项目风格的场景
- 显著提升输出与预期的一致性
实际应用:
1 | |
4.3 Fine-tuning vs Prompting
两种优化 AI 代码生成效果的路径。
Prompting(提示优化):
- 通过调整输入提示词来改善输出
- 零成本,即时生效
- 适合大多数日常编程场景
- 受限于模型本身的能力边界
Fine-tuning(微调):
- 在特定代码数据集上对模型进行二次训练
- 需要训练数据和计算资源
- 能让模型深度适配特定编程语言、框架或企业编码规范
- 适合企业级定制化场景
选择建议:优先尝试 Prompting,当 Prompting 无法满足需求时再考虑 Fine-tuning。
4.4 MVP(Minimum Viable Product,最小可行产品)
用最少的功能和工作量快速构建一个可运行的产品原型,用于验证想法和收集反馈。
AI 时代的 MVP 变革:
- 构建门槛大幅降低:非程序员也能通过 Vibe Coding 快速出原型
- 迭代速度加快:AI 辅助下,从想法到可运行原型可能只需数小时
- 验证成本降低:快速试错,不可行就丢弃,减少沉没成本
MVP 开发流程(AI 辅助):
- 明确核心价值假设(要验证什么)
- 确定最小功能集
- 使用 AI 工具快速生成代码
- 部署并收集用户反馈
- 根据反馈决定是否继续投入
五、工具与协议
5.1 AI IDE 工具生态
当前主流的 AI 编程工具可分为三类:
5.1.1 AI 增强型 IDE
在传统 IDE 基础上深度集成 AI 能力:
| 工具 | 基础 | 核心特点 |
|---|---|---|
| Cursor | VS Code Fork | Chat + Agent + Composer 多模式,支持 @codebase 全局索引 |
| Windsurf | VS Code Fork | Codeium 出品,Cascade 流式协作模式 |
| Trae | VS Code Fork | 字节跳动出品,中文友好 |
| VS Code + Copilot | VS Code | GitHub 官方插件,生态最成熟 |
5.1.2 CLI 型 Agent 工具
在终端中运行的自主编程 Agent:
| 工具 | 厂商 | 核心特点 |
|---|---|---|
| Claude Code | Anthropic | 终端 Agent,深度代码理解,支持 MCP 扩展 |
| Gemini CLI | 终端 Agent,超长上下文,Google 生态集成 | |
| Aider | 开源 | 支持多种模型,Git 集成好 |
| Codex CLI | OpenAI | 终端 Agent,沙箱执行 |
5.1.3 全自主型 Agent
能独立完成从需求到交付的全流程:
| 工具 | 特点 |
|---|---|
| Devin | 首个”AI 软件工程师”,拥有独立开发环境 |
| OpenHands | 开源全自主 Agent,支持自定义工作流 |
5.2 MCP(Model Context Protocol,模型上下文协议)
由 Anthropic 于 2024 年底提出的开放协议,为 AI 模型连接外部工具和数据源提供标准化接口。
核心概念:
- MCP Server:提供工具和资源的服务端(如数据库连接、API 调用、文件操作)
- MCP Client:调用 MCP Server 的 AI 应用(如 Claude Code、Cursor)
- Tools:Server 暴露的可调用功能(如查询数据库、发送请求)
- Resources:Server 提供的可读取数据(如文档、配置)
意义:
- 统一了 AI 工具的扩展方式,避免每个工具各自实现
- 类似于”AI 世界的 USB 接口”——即插即用
- 让 AI 能安全地访问外部系统(数据库、API、浏览器等)
ℹ️ 信息: 延伸阅读
关于 MCP 工具机制,参见 MCP工具列表获取机制。
5.3 Cursor Rules / CLAUDE.md(项目级 AI 配置)
通过在项目根目录放置配置文件,为 AI 工具提供项目级别的指令和约束。
主流配置文件:
| 文件 | 适用工具 | 作用 |
|---|---|---|
.cursorrules |
Cursor | 定义项目编码规范、技术栈、AI 行为约束 |
CLAUDE.md |
Claude Code | 项目指令、工作流规则、Skill 配置 |
.github/copilot-instructions.md |
GitHub Copilot | 项目级 Copilot 指令 |
.windsurfrules |
Windsurf | 项目级 Windsurf 指令 |
典型内容:
- 项目使用的技术栈和版本
- 编码规范和命名约定
- 目录结构说明
- 禁止或推荐的做法
- 自动化工作流规则
意义:让 AI 工具”理解”项目上下文,生成更符合项目规范的代码,相当于给 AI 一份”项目入职手册”。
ℹ️ 信息: 延伸阅读
关于 Claude Code Skills 机制,参见 Claude Code Skills详解。
六、质量与挑战
6.1 Code Review by AI(AI 代码审查)
利用 AI 对代码变更进行自动化审查,发现潜在问题。
AI Code Review 的能力范围:
- 检测常见 Bug 和逻辑错误
- 识别安全漏洞(SQL 注入、XSS 等)
- 检查编码规范一致性
- 发现性能瓶颈和资源泄漏
- 评估代码可读性和可维护性
局限性:
- 难以理解复杂的业务逻辑上下文
- 可能产生误报(False Positive)
- 无法替代人类对架构合理性的判断
- 对跨服务/跨系统的影响分析能力有限
最佳实践:AI Review 作为第一道防线,人工 Review 作为最终把关。
6.2 Technical Debt from AI(AI 生成代码的技术债务)
AI 生成的代码虽然能快速实现功能,但可能引入隐性的技术债务。
常见问题:
- 过度工程:AI 倾向于生成”完整”但过于复杂的解决方案
- 风格不一致:不同对话生成的代码风格可能不统一
- 冗余代码:AI 可能生成重复逻辑而非复用已有模块
- 缺乏全局视角:局部最优但全局不合理的设计
- 依赖膨胀:AI 可能引入不必要的第三方依赖
- 测试覆盖不足:功能代码生成快,但测试往往被忽略
应对策略:
- 定期进行代码审查和重构
- 建立项目级 AI 配置文件(如
CLAUDE.md)约束生成规范 - 保持 Human-in-the-Loop,不盲目接受 AI 输出
- 维护良好的测试覆盖率
七、概念速查表
| 概念 | 一句话解释 |
|---|---|
| Vibe Coding | 用自然语言描述需求,凭感觉让 AI 写代码 |
| Spec Coding | 先写详细技术规范,AI 严格按规范生成代码 |
| YOLO Coding | 完全不审查 AI 代码直接部署,极端冒险风格 |
| Plan-and-Execute | 先让 AI 制定计划,人类审批后再执行 |
| Context Engineering | 系统性地为 AI 构建完整准确的上下文环境 |
| AI Native Development | 从立项开始就将 AI 融入开发全流程 |
| Human-in-the-Loop | AI 自动化中保留人类决策节点 |
| Copilot 模式 | AI 被动辅助,实时代码补全 |
| Agentic Coding | AI 自主规划并执行多步骤编程任务 |
| AI Pair Programming | 人类把控方向,AI 执行编码 |
| LLM | 驱动 AI 编程的大语言模型 |
| Token | 模型处理文本的最小单位,影响成本和速度 |
| Context Window | 模型单次能处理的最大 Token 数 |
| Hallucination | AI 生成看似合理但实际错误的代码 |
| Prompt Injection | 通过恶意输入诱导 AI 执行非预期操作 |
| Overconfidence | AI 对错误内容表现出高度确信,不表达不确定性 |
| Context Window Limitation | 上下文窗口有限导致长文件截断、跨文件遗忘 |
| Model Drift | 模型版本更新后相同 Prompt 产生不同输出 |
| Code Entanglement | AI 生成代码与已有代码产生不必要的紧耦合 |
| Code Rot from AI | AI 生成的代码因无人真正理解而逐渐退化 |
| RAG | 检索外部知识增强生成准确性 |
| Prompt Engineering | 通过优化提示词提升代码生成质量 |
| Zero-Shot / Few-Shot | 无示例 vs 有示例的 AI 编程策略 |
| Fine-tuning | 在特定数据上二次训练模型 |
| MVP | 最小可行产品,快速验证想法 |
| MCP | AI 连接外部工具的标准化协议 |
| Cursor Rules / CLAUDE.md | 项目级 AI 行为配置文件 |
| AI Code Review | AI 自动化代码审查 |
| Technical Debt from AI | AI 生成代码引入的隐性技术债务 |
总结
AI Coding 正在从”辅助工具”演变为”开发基础设施”。理解这些核心概念有助于:
- 选择合适的工具和模式:根据项目需求选择 Copilot 模式还是 Agentic Coding
- 规避常见陷阱:警惕 Hallucination 和技术债务
- 建立高效工作流:通过 Prompt Engineering、项目级配置和 Human-in-the-Loop 机制提升协作效率
- 保持技术判断力:AI 是工具而非替代品,核心架构决策仍需人类把关
⚠️ 重要: 核心观点
AI Coding 的本质不是”让 AI 替你写代码”,而是”让人类开发者借助 AI 做出更好的技术决策、更快地交付高质量软件”。
相关链接
- 大模型学习路线
- RAG技术详解
- Prompt Engineering详解
- Agent架构模式详解
- Advanced-RAG详解
- Agent工具调用技术详解
- MCP工具列表获取机制
- Claude Code Skills详解