找回密码
 立即注册
首页 业界区 业界 67个AI编程必会知识,1.6w字一次讲透!女友:“你要考研 ...

67个AI编程必会知识,1.6w字一次讲透!女友:“你要考研啊?!”

卢莹洁 6 天前
一文搞懂 AI 编程的所有核心术语
你好,我是程序员鱼皮,前腾讯全栈开发,全网 200 万粉的 AI 编程博主,也是 AI 导航 和 编程导航 等 10+ 自研产品的创造者。
在学习 Vibe Coding 的过程中,你一定会遇到各种陌生的名词和术语。比如什么是 Token?什么是上下文窗口?什么是 RAG?这些概念听起来很高大上,但其实理解起来并不难。
这篇文章就是你的 AI 编程术语词典,我会用最通俗易懂的语言,把 Vibe Coding 中最常见、最重要的概念讲清楚。墙裂建议收藏,遇到不懂的词就来查一查。
AI 基础概念

人工智能(AI)

人工智能(Artificial Intelligence)是让计算机模拟人类智能的技术。简单来说,就是让机器能像人一样思考、学习和解决问题。
在 Vibe Coding 中,AI 就是你的编程助手。你只管告诉它要做什么,它就会嘎嘎帮你做方案、写代码、修 Bug。就像你有一个 24 小时在线的程序员朋友,随时可以帮你干活。
大语言模型(LLM)

大语言模型(Large Language Model)是一种能够理解和生成人类语言的 AI 系统。ChatGPT、Claude、Gemini、DeepSeek 都是大语言模型。
为什么叫 “大” 模型呢?因为这些模型的 参数量 非常庞大,动辄几十亿甚至上万亿个参数。参数越多,模型通常越聪明,但也越消耗计算资源。
你可以把大语言模型理解成一个读过海量书籍和代码的超级学霸,它见过无数的编程案例,所以能帮你写代码、解释代码、修复 Bug。

除了文本大语言模型之外,AI 领域还有专门处理图片的视觉模型(比如 Stable Diffusion)、处理语音的音频模型(比如 Whisper)、以及能同时处理文字、图片、音频的多模态模型(如 GPT-4o、Gemini)。在 AI 编程时,我们主要和文本大语言模型打交道。
Token

Token 是 AI 模型处理文本的基本单位。你可以简单理解为 “词块”。
Token 是你必须掌握的核心概念,因为 AI 服务通常按照 Token 收费。你输入的文字和 AI 输出的文字都会消耗 Token。Token 用得越多,花的钱就越多。
在英文中,一个 Token 大约是一个单词或单词的一部分。在中文中,一个汉字通常是 1 ~ 2 个 Token。
举个例子来帮助大家理解:

  • "Hello World" 大约是 2 个 Token
  • “你好世界” 大约是 4 ~ 6 个 Token

目前很多 AI 编程工具(比如 Cursor、Claude Code)都自带了 Token 消耗量的实时统计和展示,方便你随时掌握用量和成本。
输入 Token 和输出 Token

AI 服务在计费时,一般会分别计算输入和输出的 Token。

  • 输入 Token:你发给 AI 的内容,比如提示词、代码、文件等
  • 输出 Token:AI 返回给你的内容,比如回答、生成的代码、工具调用指令等
一般来说,输出 Token 比输入 Token 更贵。以 Claude Sonnet 4 为例,输入价格是 3 美元/百万 Token,输出价格是 15 美元/百万 Token,贵了 5 倍。这是因为生成内容比理解内容更消耗算力。
最简单的一个省 Token 小技巧是:用心编写简洁清晰的提示词,让 AI 一次就能理解你的需求,减少反复对话。更多省 Token 技巧可以看看鱼皮分享过的视频:AI 编程省钱技巧
模型参数

参数是模型在训练过程中学到的 “知识点”,用数字的形式存储在模型中。
举个好理解的例子,模型在训练时读到了大量 “天空是蓝色的” 这类内容,它就会在参数中记住 “天空” 和 “蓝色” 之间的关联关系。参数越多,模型能记住的知识和关联就越丰富。
参数量直接影响模型的能力和使用成本。参数越多,模型越聪明,但运行时消耗的算力(GPU 计算资源)也越多,所以价格也越贵。
目前主流大模型中,明确公开参数量的有:

  • DeepSeek-V3:6710 亿参数(采用 MoE 混合专家架构,实际激活 370 亿)
  • Qwen3-235B:2350 亿参数(通义千问系列,激活 220 亿)
  • Llama 4 Scout:1090 亿参数(Meta 开源模型,激活 170 亿)
值得一提的是,即使是同一系列的大模型,厂商也会提供不同参数量的版本供你选择。

模型训练和推理

训练(Training)是让 AI 模型从大量数据中学习知识的过程。这个过程需要海量的计算资源和时间,一般由 AI 公司完成。绝大多数情况下,你不需要自己训练模型,直接用训练好的成品就行。
推理(Inference)是模型训练完成、具备了知识之后,用学到的知识来回答问题、生成内容的过程。我们日常使用 AI 工具,比如和 ChatGPT 对话、让 Cursor 写代码,本质上都是 AI 模型在进行推理。
打个比方,训练就像学生上学读书,推理就像学生参加考试答题。

模型微调(Fine-tuning)

微调是在已有模型的基础上,用特定领域的数据继续训练,让模型在某个领域表现更好。
比如,你可以用大量的医学资料微调一个模型,让它成为医学专家。或者用你公司的代码库微调,让它更了解你的项目风格。
对于普通用户来说,微调成本较高,一般不需要自己做,直接使用现成的模型就够了。不过,很多大模型应用开发平台(比如阿里云百炼、火山引擎等)都提供了模型微调的能力,降低了微调的门槛。

上下文窗口

上下文窗口(Context Window)是指 AI 模型一次能 “记住” 的最大内容量,用 Token 来衡量。
不同模型的上下文窗口大小不同:

  • GPT-4o:128K Token(约 10 万中文字)
  • Claude Opus 4.6:标准 200K Token,支持扩展到 1M Token(约 75 万中文字)
  • Gemini 3.1 Pro:1M Token(约 75 万中文字),且支持同时处理文字、图片、音频、视频
上下文窗口越大,AI 能处理的代码量就越多,能记住的对话历史就越长。如果你的项目代码很多,或者你不确定 AI 能否在一次对话中完成任务,选择上下文窗口大的模型会更合适。
但要注意,上下文窗口越大,每次请求消耗的 Token 也越多,成本也会更高。比如在 Cursor 中使用 Claude Sonnet 模型时,单次请求超过 20 万 Token,输入价格就会翻倍。
提示词相关

提示词(Prompt)

提示词是你给 AI 的指令或问题。在 AI 编程中,提示词就是你用自然语言描述的需求。
提示词的质量直接决定了 AI 输出的质量。一个好的提示词应该:

  • 具体明确
  • 包含必要的背景信息
  • 说明期望的输出格式
比如,“做一个网站” 是一个模糊的提示词,而 “用 React 做一个记账网站,包含添加支出、查看列表、统计总额三个功能,界面用蓝色调” 就是一个更好的提示词。
在 AI 对话中,消息一般分为 3 种角色:

  • 系统提示词(System):设置 AI 的角色和行为规则,对用户不可见
  • 用户提示词(User):你发送给 AI 的消息
  • 助手提示词(Assistant):AI 回复给你的消息
理解这 3 种角色有助于你更好地使用 AI。比如很多 AI 编程工具允许你设置系统提示词来定义 AI 的行为规则,而你在对话框中发送的内容就是用户提示词。

系统提示词

系统提示词(System Prompt)是在对话开始前给 AI 设置的指令,用来定义 AI 的角色、行为和限制。
比如,你可以设置系统提示词:“你是一位资深的 Java 后端开发专家,请用简洁清晰的代码风格回答问题。”
系统提示词在整个对话过程中都会生效,是定制 AI 行为的重要方式。
还记得前几年 AI 刚流行的时候,市面上冒出了一大堆 AI 助手网站么?其实很多就是 “套壳”,底层调用的是同一个大模型,只不过给不同的 AI 助手设定了不同的系统提示词,比如 “你是一个翻译专家”、“你是一个法律顾问” 等。

提示词工程

提示词工程(Prompt Engineering)是设计和优化提示词的技术,目的是让 AI 更好地理解你的意图,生成更符合预期的结果。
这是 Vibe Coding 的核心技能之一。好的提示词工程师能用更少的对话轮次、更低的 Token 成本,让 AI 生成更高质量的代码。
想学习编写提示词的实战技巧,可以看看鱼皮的免费《AI 编程教程》:提示词编写技巧

零样本提示(Zero-shot)

零样本提示是指在给 AI 下达任务时,不提供任何示例,直接描述你的需求让 AI 去完成。
比如:“请把这段英文翻译成中文。”
AI 会根据自己的训练知识来完成任务。
对于简单任务,零样本提示一般就够用了,不需要提供额外的示例内容,还能节约一些 Token 成本。
少样本提示(Few-shot)

少样本提示是指在给 AI 下达任务时,额外提供几个输入输出的示例,让 AI 通过这些示例学习你想要的格式或风格,从而更准确地完成任务。
比如:
  1. 请按以下格式翻译:英文:Hello → 中文:你好英文:Thank you → 中文:谢谢英文:Good morning → 中文:
复制代码
通过提供示例,AI 能更准确地理解你的需求,输出更一致的结果。

思维链提示(Chain-of-Thought)

思维链提示(Chain-of-Thought,简称 CoT)是一种引导 AI 展示推理过程、一步一步思考问题的提示技术,而不是让 AI 直接给出答案。这对于复杂的推理任务特别有效,比如多步骤的数学计算、代码逻辑分析、系统架构设计等。
触发思维链提示的方法很简单。很多推理模型(比如 DeepSeek-R1)和 AI 编程工具天然内置了思维链能力,会自动展示推理过程。你也可以在提示词中手动加上 “请一步一步思考”,AI 就会展示它的推理过程,一般能得到更准确的答案。
在 AI 编程中,涉及复杂业务逻辑、多模块交互、或者需要权衡多种技术方案的项目,特别适合利用推理模型和思维链提示能力,让 AI 想清楚再动手。

Markdown 语言

Markdown 是一种轻量级的文本标记语言,用简单的符号来表示格式。比如用 # 表示标题,用 **文字** 表示加粗,用 - 表示列表。

在 AI 编程中,Markdown 非常重要,因为:

  • AI 生成的回答大多数都是 Markdown 格式
  • 项目文档(如 README)采用 Markdown 编写
  • 定义 AI 智能体的规则文件也是 Markdown 格式
学会 Markdown 能让你更好地跟 AI 交流,也能写出更规范的项目文档。更重要的是,结构化的内容(标题层级、列表、代码块等)有助于 AI 更准确地理解你的意图,同时也能培养你自己的结构化思维能力,这对写好提示词非常有帮助。
AI 编程模式

Vibe Coding 氛围编程

Vibe Coding 是由计算机科学家 Andrej Karpathy 在 2025 年 2 月提出的概念。它描述了一种全新的编程方式:通过自然语言和 AI 对话,让 AI 帮你写代码,你只需要描述需求、测试结果、指导方向。
你不需要精通编程语法,只需要能清楚表达你的想法,AI 负责把你的想法变成可运行的代码。
所以说,Vibe Coding 的重点不是写代码,而是明确需求并清晰表达。你描述得越清楚,AI 给你的结果就越靠谱。
这就像点外卖一样,你告诉外卖平台你想吃什么,餐厅帮你做好送到手上。你不需要会做饭,但要知道自己想吃什么。
Agentic Engineering 智能体工程

Agentic Engineering(智能体工程)是 2026 年 2 月由 Andrej Karpathy(也就是提出 Vibe Coding 的那位大佬)提出的新概念,可以理解为 Vibe Coding 的规范版。
Vibe Coding 就是跟着感觉写代码:你给 AI 一句话,AI 吐出代码,能跑就行,跑不了就把报错粘回去让 AI 再改。做个小工具贼拉快,但项目一大就容易翻车。
而 Agentic Engineering 的思路是:你先想清楚要干嘛、写好方案、拆好任务,再把活交给 AI 去执行,它干完了你还得验收,质量不行再打回去重做。
打个比方,Vibe Coding 的时候你是个 DJ,放什么歌全凭感觉;Agentic Engineering 里你是包工头,流程、质量、验收都得你说了算。一个跟着感觉走,一个按流程来。
当然,不是说 Vibe Coding 已经过时了。Vibe Coding 负责让你看到可能性,Agentic Engineering 负责把可能性变成真正能用的东西。二者适用于不同的场景,做小工具时可以用 Vibe Coding,做企业级项目就需要 Agentic Engineering 的思维。

Agentic Coding 智能体编程

Agentic Coding 智能体编程是指让 AI 像一个自主的 “智能体”(Agent)一样工作,能够自己规划任务、执行操作、验证结果,而不只是被动地回答问题。
它和前面提到的 Agentic Engineering 的区别在于,Agentic Coding 强调的是 AI 的自主执行能力(AI 能干什么),而 Agentic Engineering 强调的是人对 AI 的管理方法论(人该怎么管)。
如今,几乎所有主流 AI 编程工具都提供了智能体编程的能力。比如在 Cursor 的 Agent 模式中,AI 可以:

  • 自动读取和分析多个文件
  • 规划实现方案
  • 执行代码修改
  • 运行测试验证
  • 自动修复问题
这比传统的问答式 AI 更强大,因为它能自主完成复杂的多步骤任务。可以说,AI 不再只是辅助编程的配角,而是正在成为项目开发的核心驱动力。

多智能体协作

多智能体协作(Multi-Agent)是指多个 AI 智能体分工合作,共同完成复杂任务。
比如,一个智能体负责设计架构,一个负责写前端代码,一个负责写后端代码,一个负责代码审查。它们像一个软件开发团队一样协作。
这两年,多智能体系统正在成为 AI 编程的重要趋势。它的优势不仅仅是能处理更复杂的项目,还能通过并行工作大幅提升效率,让原本需要几小时的任务在几分钟内完成。

智能体编排

编排(Orchestration)是指协调和管理多个 AI 智能体或 AI 任务的过程,确保它们按正确的顺序和方式工作。
如果说多智能体协作关注的是 “有哪些角色参与”,那编排关注的是 “谁先干、谁后干、结果怎么汇总”,它是多智能体系统的指挥中枢。
就像乐队指挥一样,编排器决定哪个智能体在什么时候做什么事情、如何传递信息、如何汇总结果。

Subagents 子代理

Subagents(子代理)是指主 AI 智能体将部分任务分派给独立的子智能体来并行处理的机制。
你可以把它理解成 AI 的下属,就像一个经理把活分给手下的几个员工同时干一样。当主 AI 遇到一个大任务时,它可以把独立的小任务分给几个子代理同时干,自己继续处理其他工作。
Subagents 的好处是:

  • 并行处理多个独立任务,效率翻倍
  • 主代理的上下文保持干净,不会被子任务的细节污染
  • 每个子代理可以专注于自己的任务,结果更准确
比如你可以让几个子代理同时审查代码库的不同模块,速度会快很多。

在 Claude Code 中,AI 会通过内置的 Task 工具自动生成子代理来处理子任务,你不需要做额外配置。你也可以在 .claude/agents/ 目录下创建自定义的子代理(用 Markdown 文件定义),给它指定专属的角色描述、工具权限和行为规则。
不过子代理也有局限,每个子代理的上下文是独立的,它们之间无法直接共享信息,所以不适合有强依赖关系的任务。另外,多个子代理同时运行会消耗更多 Token,成本会相应增加。就像公司招人一样,多招几个人确实能干得更快,但工资支出也得跟着涨,而且人多了沟通协调的成本也会上来。
Agent Teams 智能体团队

Agent Teams(智能体团队)是 2026 年兴起的多智能体编程新模式,由 Claude Code 率先推出。它让 3 ~ 5 个独立的 AI 智能体组成团队,在同一个项目上并行工作。
和传统的单 AI 对话不同,Agent Teams 中有一个 Team Lead(队长)负责拆解任务和协调工作,其他 Teammates(队员)各自领取任务独立执行,还能通过消息系统互相沟通。

打个比方,以前用 AI 编程就像你一个人带一个实习生干活,现在 Agent Teams 相当于你直接管了一个小团队,前端、后端、测试同时干,效率翻了好几倍。Anthropic 的工程团队曾用 16 个 Agent 同时工作,产出了 10 万行 Rust 代码!把原本需要数天的工作压缩到了几小时。
当然,代价就是花费的 Tokens 可能会更多,不是什么时候都建议使用 Agent Teams。
Background Agent

后台 Agent(Background Agent)是让 AI 在后台自主运行、完成任务后再通知你结果的能力。
传统的 AI 编程需要你盯着屏幕等 AI 一步步做完,电脑还不能关。而后台 Agent 允许你把任务交给 AI 后,就去做别的事情,AI 会在云端独立完成工作,你甚至可以关掉电脑!
比如让 AI 在后台修复一批 Bug、跑一轮代码审查、或者完成一个完整的功能模块,做完了会通知你来验收。
目前 Claude Code、Cursor 等工具都已经支持后台 Agent 能力。以后 AI 编程可能就像发微信一样,你在手机上把需求发过去,该干嘛干嘛,等 AI 做完了来找你验收就行。

Agent Loop 智能体循环

Agent Loop(智能体循环)是 AI 智能体的核心工作机制,简单来说就是 AI 通过不断重复 “感知-思考-行动-观察” 的循环来一步步完成任务。
一个典型的 Agent Loop 包括:

  • 感知:获取当前环境信息(读取文件、查看错误等)
  • 思考:分析情况,决定下一步行动
  • 行动:执行具体操作(写代码、运行命令等)
  • 观察:检查行动的结果
  • 循环:根据结果决定是否继续
这个循环会一直进行,直到任务完成或达到终止条件。
理解 Agent Loop 能帮你更好地规划任务和管理 AI 的工作过程。需要特别注意的是,AI 编程时 Agent Loop 的循环次数不要太多,很多工具都有最大循环次数限制,循环太多不仅效果不好,还会疯狂烧 Token!有朋友一觉醒来发现额度用光了,就是因为让 AI 陷入了无限循环……
ReAct 推理与行动

ReAct(Reasoning and Acting)是一种让 AI 智能体交替进行推理和行动的技术范式。它的核心思想很简单:让 AI 先想清楚再动手,动完手再看看效果,然后继续想下一步怎么做。
传统的 AI 要么只思考不行动,要么只行动不思考。而 ReAct 让 AI 能够:

  • 先推理:思考当前情况,制定计划
  • 再行动:执行具体操作
  • 观察结果:看看行动效果如何
  • 继续推理:根据结果调整策略
这种 “思考 - 行动 - 观察” 的循环让 AI 能更可靠地完成复杂任务,是现代 AI 编程工具的核心技术之一。

深度思考

深度思考(Deep Thinking)是让 AI 在回答之前先进行一段内部推理的能力,也叫 “扩展思考” 或 “思考模式”。
它和前面提到的思维链提示(CoT)有什么区别呢?
思维链提示是一种提示词技巧,通过提示词引导 AI 展示推理过程;而深度思考是模型内置的能力,AI 会在内部自动进行深度推理,不需要你在提示词中特别要求。
普通模式下,AI 收到问题后会直接生成回答。而开启深度思考后,AI 会先在内部进行一系列推理步骤,比如分析问题、考虑多种方案、评估利弊,然后才输出最终答案。你有时能在 AI 的回复中看到一个 “思考中...” 的过程,那就是深度思考在工作。

深度思考特别适合复杂的编程任务,比如设计系统架构、排查难以定位的 Bug、优化算法等。代价是速度更慢、Token 消耗更多。
目前主流 AI 模型和 AI 编程工具都支持深度思考,并且你可以选择是否开启思考模式。
自适应思考

自适应思考(Adaptive Thinking)是深度思考的智能化版本,让 AI 自动判断当前问题需要多深的思考程度。
以前深度推理模式只能手动开关,开了的话简单问题也慢吞吞地想半天、还浪费钱,关了的话复杂问题又容易出错。
AI 有了自适应思考能力后,可以做到简单问题秒回,复杂问题会自动进入深度思考模式。这样既保证了质量,又节省了时间和成本。

Anthropic 在 Claude Opus 4.6 中率先引入了自适应思考能力,开发者可以设置不同的思考力度级别来平衡质量和成本。
工具调用

工具调用(Tool Use / Function Calling)是让 AI 能够使用外部工具和功能的技术。
AI 本身只能生成文字,但通过工具调用,它可以读写文件、搜索网页、执行命令和脚本、调用 API、操作数据库等等。

工具调用的工作流程分为 4 步:

  • 识别需求:AI 判断当前任务需要使用工具
  • 选择工具:从可用工具中选择合适的
  • 执行调用:用正确的参数调用工具
  • 整合结果:将工具返回的结果融入回答,继续完成任务
举个例子,用户想要获取 编程导航网站 的热门文章,下面这张图清晰地展示了工具调用的完整流程:

需要注意的是,AI 模型本身并不直接执行工具,而是生成 “我想调用这个工具,参数是这些” 的指令,由外部系统执行后把结果返回给 AI。
有了工具调用,AI 就从 “只会说” 变成了 “能动手”。如果没有工具调用,AI 只能告诉你该怎么改代码,你还得自己去复制粘贴;而有了工具调用,AI 可以直接帮你读取文件、修改代码、运行命令,一条龙搞定。比如 Cursor 的 Agent 模式就是通过工具调用来实现自主编程的。
MCP 模型上下文协议

MCP(Model Context Protocol)是 Anthropic 在 2024 年底推出的开放标准,用于让 AI 模型安全地连接外部数据源和工具。
你可以把 MCP 理解成 AI 世界的 “USB 接口”。就像 USB 接口让各种设备(键盘、鼠标、U 盘)都能用同一种方式连接电脑一样,MCP 让各种外部工具(文件管理、数据库、搜索引擎等)都能用同一种方式连接 AI,不用为每个工具单独写一套对接代码。

MCP 的核心价值在于 标准化。开发者不需要为每个 AI 工具单独开发连接器,只需要按照 MCP 标准开发一次,就能被所有支持 MCP 的 AI 工具使用。目前 Claude Code、Cursor、Windsurf 等主流 AI 编程工具,以及各种网页 AI Agent 应用都已经支持 MCP 协议。

在 Vibe Coding 中,MCP 让 AI 能够连接更多外部工具和数据源,大大扩展了 AI 的能力边界。比如通过 Figma MCP,AI 可以直接读取设计稿并生成对应的网页代码;通过 GitHub MCP,AI 可以直接操作代码仓库、创建 PR;通过数据库 MCP,AI 可以查询和分析业务数据。



来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

相关推荐

您需要登录后才可以回帖 登录 | 立即注册