AI 领域的新词来得很快:今天是大模型,明天是 Agent,过几天又会冒出 MCP、A2A、RAG、Embedding。真正开始使用 AI 工具以后,还会遇到上下文窗口、模型参数、推理、GEO、边缘 AI、Vibe Coding、API Key、中转站、AI 网关、模型路由、VPN 这些和模型能力、内容可见性、接入、网络、安全有关的词。很多文章默认读者已经懂了一半,结果越看越像在背缩写。
这个专题想做一件更朴素的事:把这些词放回真实使用场景里讲清楚。默认读者不需要会写代码,也不需要懂服务器、算法或数学公式。只要你用过搜索、聊天软件、网购、在线文档,就能跟上。
每篇文章都会尽量回答三个问题:它到底像生活里的什么东西,为什么大家反复提起它,学到什么程度就够用了。文章会尽量写成能直接读下去的解释,而不是术语表。
从哪里开始读
如果你只是想先建立一张地图,可以从 AI / 人工智能、ML / 机器学习、DL / 深度学习 和 LLM / 大语言模型 开始。这几篇会帮你分清“AI 是大概念,机器学习是一类方法,大语言模型只是今天最显眼的一种模型”。接着读 GenAI / 生成式 AI、ChatGPT Images / 图像功能 和 Multimodal AI / 多模态 AI,就能理解为什么今天的 AI 不只是分类和预测,还能写文字、生成图片、理解多种内容。
如果你已经在用 ChatGPT、Claude 或其他 AI 工具,建议先读 Prompt / 提示词、Token / 令牌、Context Window / 上下文窗口、Inference / 推理 和 Hallucination / 幻觉。它们会解释你每天使用 AI 时最常遇到的现象:为什么同一句话换个问法结果不同,为什么长对话会忘事,为什么模型会一本正经地说错。
如果你想让 AI 基于自己的资料回答,或者把 AI 放进工作流程里,可以继续读 Embedding / 向量嵌入、Vector Database / 向量数据库、RAG / 检索增强生成、GEO / 生成式引擎优化、Agent / 智能体、Tool Calling / 工具调用、AI Workflow / AI 工作流、MCP / 模型上下文协议 和 A2A / Agent2Agent。这一路读下来,你会看到 AI 怎样从“聊天窗口”变成“能查资料、会调用工具、能和其他助手协作的办事系统”。
如果你关心 AI 服务怎么接入、怎么收费、怎么部署和怎么保护访问安全,再读 API / 应用程序接口、API Key / 密钥、API Relay / API 中转站、AI Gateway / AI 网关、Model Routing / 模型路由、VPN / 虚拟专用网络、Local Model / 本地模型 和 Edge AI / 边缘 AI。这些词更像水电煤和门禁系统,不一定每天被看见,但决定了 AI 能不能稳定、安全、低成本地用起来。
最后,如果你想理解模型怎样被改造得更适合某个任务,可以读 Model Parameters / 模型参数、Fine-tuning / 微调、Reinforcement Learning / 强化学习 和 Distillation / 蒸馏。如果你对“用 AI 写代码”感兴趣,可以把 Vibe Coding / 氛围编程 放在最后读,它会把前面的提示词、工具调用、上下文和工作流重新连到一个真实使用场景里。
专题路线图
flowchart LR
AI["AI"] --> ML["ML"]
ML --> DL["DL"]
DL --> LLM["LLM"]
LLM --> Prompt["Prompt"]
LLM --> Context["上下文窗口"]
LLM --> Params["模型参数"]
LLM --> Inference["推理"]
LLM --> GenAI["GenAI / Images"]
LLM --> Vibe["Vibe Coding"]
LLM --> RAG["RAG"]
RAG --> Agent["Agent"]
Agent --> MCP["MCP"]
Agent --> A2A["A2A"]
API["API"] --> MCP
Relay["API Relay"] --> API
Key["API Key"] --> API
Gateway["AI Gateway"] --> Relay
Router["Model Routing"] --> Gateway
VPN["VPN"] --> Gateway
Token["Token"] --> LLM
Embedding["Embedding"] --> RAG
VectorDB["Vector Database"] --> RAG
ToolCall["Tool Calling"] --> Agent
Multimodal["Multimodal AI"] --> GenAI
Workflow["AI Workflow"] --> Agent
Local["Local Model / Ollama"] --> LLM
Edge["边缘 AI"] --> Local
Edge --> Inference
FineTune["Fine-tuning"] --> LLM
Distill["蒸馏"] --> Local
RL["强化学习"] --> ML
RL --> Agent
Hallucination["Hallucination"] --> RAG
GEO["GEO"] --> RAG
GEO --> GenAIAI 小故事:把术语串起来
故事一:先开一家会学习的小店
可以先把 AI 世界想成一家正在升级的“智能内容小店”。AI / 人工智能 是店主的总目标:希望机器也能做一些原本需要人判断的事,比如识别顾客想要什么、推荐商品、写文案、看图片、整理资料。ML / 机器学习 像让店员从过去的订单里总结经验,而不是只按死规则办事;DL / 深度学习 则像给店员配了一套更复杂的大脑,让它能从大量图片、语音和文字里学到更细的模式。
后来店里请来了一位特别会读写和对话的总助理,这就是 LLM / 大语言模型。它不只是查字典,而是能根据前后文组织语言、解释问题、起草内容。Model Parameters / 模型参数 可以理解成这位助理长期训练后留下的“经验痕迹”,决定了它大致会怎样理解和表达。
故事二:总助理开始写文案、做图片
当这位总助理不只是分析信息,而是开始写文章、做摘要、生成图片时,就进入了 GenAI / 生成式 AI 的范围。ChatGPT Images / 图像功能 像店里的设计助手,你用自然语言描述海报、配图或修改要求,它就尝试生成视觉内容。
你给 AI 的交代,就是 Prompt / 提示词。它像对店员说:“这张海报要温暖一点,面向新手,标题别太硬。”不过这位助理一次能放在脑子里的信息有限,这就是 Context Window / 上下文窗口。而文字在它眼里也不是整篇整篇处理的,而会被切成 Token / 令牌 这样的小片段。
故事三:给助理接上资料仓库
只靠总助理自己的记忆,小店很容易出错。它可能把库存、价格、政策记混,甚至出现 Hallucination / 幻觉:说得很顺,但事实不对。于是店里给它接上资料库,这就是 RAG / 检索增强生成:先去货架和档案柜里找资料,再基于资料回答。
为了让机器知道哪些资料“意思相近”,会用 Embedding / 向量嵌入 把文字变成可比较的数字;这些向量通常会放进 Vector Database / 向量数据库,像一个按含义摆放的资料仓库。GEO / 生成式引擎优化 则像重新整理店里的说明牌和商品介绍,让 AI 助理更容易看懂、引用和推荐你的内容。
故事四:让助理从“回答”变成“办事”
当 AI 不只是回答,而是开始替你拆任务、查资料、调用工具、看结果并决定下一步时,它就更像 Agent / 智能体。Tool Calling / 工具调用 像它知道什么时候该拿计算器、查库存系统、发邮件或生成表格;AI Workflow / AI 工作流 则是把“接单、查资料、写草稿、审核、发布”串成固定流程。
如果店里有好几个 AI 助理,分别负责客服、文案、数据分析和技术支持,它们之间需要一种协作语言,这就是 A2A / Agent2Agent。而 MCP / 模型上下文协议 更像统一插座标准,让不同 AI 助理更容易接入工具、文件和数据库。
故事五:把小店接入真实世界
小店要真正经营起来,还离不开接入和安全。API / 应用程序接口 像软件之间的服务窗口,外部系统通过它来下单和取结果;API Key / 密钥 像通行证,用来证明“谁在调用服务”。如果你不直接去每一家模型供应商那里排队,而是通过一个统一柜台转交请求,那就是 API Relay / API 中转站。
当请求变多以后,AI Gateway / AI 网关 会像前台总管,统一管理权限、日志、成本、限流和安全;Model Routing / 模型路由 则像根据问题类型分配不同店员:简单问题给便宜快速的模型,复杂任务交给能力更强的模型。VPN / 虚拟专用网络 像给远程员工修了一条加密通道,让他们更安全地访问内部系统。
故事六:让助理更便宜、更顺手、更靠近现场
最后,还有一些词是在讲“模型怎么变得更适合现实使用”。Fine-tuning / 微调 像让总助理专门学习你店里的话术、格式和业务习惯;Reinforcement Learning / 强化学习 像它做完事后收到反馈,慢慢学会什么做法更合适;Distillation / 蒸馏 像把资深员工的经验整理成一套更轻便的培训手册,让小模型也能学到一部分能力。
Inference / 推理 是训练完成后,模型真正上岗回答问题、生成图片或执行任务的过程。如果你把模型跑在自己电脑上,就是 Local Model / 本地模型;如果模型运行在手机、摄像头、汽车或工厂设备附近,就是 Edge AI / 边缘 AI。当 AI 同时理解文字、图片、语音和视频时,它就是 Multimodal AI / 多模态 AI。而 Vibe Coding / 氛围编程,可以想成你不再亲手拧每一颗螺丝,而是告诉 AI “我想要一个什么样的软件”,再一边试用一边让它修改。
这几个故事连起来看,这些术语就不再是孤立的缩写。它们其实在讲同一件事:我们怎样训练一个会理解和生成内容的助手,怎样给它资料和工具,怎样让它接入真实系统,怎样控制成本、安全和错误,最后怎样把它放进日常工作里。
全部文章
基础概念
- AI / 人工智能:所有概念的起点。
- ML / 机器学习:模型如何从数据中学习。
- DL / 深度学习:为什么神经网络改变了图像、语音和语言处理。
- LLM / 大语言模型:ChatGPT 这类产品背后的核心能力。
- GenAI / 生成式 AI:从”分析信息”到”创造内容”。
- ChatGPT Images / 图像功能:用自然语言生成和编辑图片。
- Prompt / 提示词:和模型沟通的基本功。
- Token / 令牌:AI 阅读文字时切出来的小片段。
- Context Window / 上下文窗口:模型一次能参考多少信息。
- Model Parameters / 模型参数:模型训练后学到的内部数值。
- Inference / 推理:训练好的模型实际生成结果的过程。
- Multimodal AI / 多模态 AI:同时理解文字、图片、声音和视频。
- Reasoning Model / 推理模型:o1、o3、DeepSeek R1 这类会”慢慢想”的模型。
- Alignment / AI 对齐:如何让 AI 的行为符合人类的意图和价值观。
知识与资料
- RAG / 检索增强生成:让模型基于外部资料回答。
- Embedding / 向量嵌入:把”意思相近”变成机器能比较的数字。
- Vector Database / 向量数据库:按”意思相近”来存储和搜索资料。
- GEO / 生成式引擎优化:让内容更容易被 AI 答案理解和引用。
- Hallucination / 幻觉:为什么模型会一本正经地说错。
- AI Search / AI 搜索:Perplexity、SearchGPT 这类边搜索边生成答案的产品。
智能体与工具
- Agent / 智能体:从聊天到执行任务。
- MCP / 模型上下文协议:让 AI 找得到工具和资料的”插座标准”。
- A2A / Agent2Agent:让多个 AI 助手互相配合的”沟通规则”。
- Tool Calling / 工具调用:让模型请求外部工具帮它办事。
- AI Workflow / AI 工作流:把多个 AI 步骤串成自动化流程。
- Vibe Coding / 氛围编程:用自然语言指挥 AI 快速生成和修改代码。
- Computer Use / 计算机使用:AI 直接操控鼠标键盘、点击网页和应用界面。
接入、安全与部署
- API / 应用程序接口:软件之间传话的”服务窗口”。
- API Relay / API 中转站:把多个模型服务统一接入的”转接柜台”。
- API Key / 密钥:调用 AI 服务时常见的”通行证”。
- Model Routing / 模型路由:根据任务把请求分配给合适模型。
- AI Gateway / AI 网关:统一管理模型访问、权限、成本和安全的入口。
- Local Model / 本地模型:把模型跑在自己电脑上。
- VPN / 虚拟专用网络:理解网络访问、安全隧道和远程连接。
- Edge AI / 边缘 AI:让模型在靠近数据的设备上运行。
训练与优化
- Fine-tuning / 微调:让模型更习惯某种说话方式或任务格式。
- Reinforcement Learning / 强化学习:通过行动反馈学习策略。
- Distillation / 蒸馏:把大模型能力提炼给小模型。
- Prompt Caching / 提示词缓存:重复使用相同前缀,大幅降低 API 调用成本。