AI 术语总览

8200

AI 领域的新词来得很快。这个专题用生活化语言解释 LLM、RAG、Agent、MCP 等常见 AI 术语,不需要编程或数学基础,帮你把碎片名词整理成可理解、可复用的认知结构。

AI术语入门

AI 领域的新词来得很快:今天是大模型,明天是 Agent,过几天又会冒出 MCP、A2A、RAG、Embedding。真正开始使用 AI 工具以后,还会遇到上下文窗口、模型参数、推理、GEO、边缘 AI、Vibe Coding、API Key、中转站、AI 网关、模型路由、VPN 这些和模型能力、内容可见性、接入、网络、安全有关的词。很多文章默认读者已经懂了一半,结果越看越像在背缩写。

这个专题想做一件更朴素的事:把这些词放回真实使用场景里讲清楚。默认读者不需要会写代码,也不需要懂服务器、算法或数学公式。只要你用过搜索、聊天软件、网购、在线文档,就能跟上。

每篇文章都会尽量回答三个问题:它到底像生活里的什么东西,为什么大家反复提起它,学到什么程度就够用了。文章会尽量写成能直接读下去的解释,而不是术语表。

AI 术语知识地图
AI 术语知识地图

从哪里开始读

如果你只是想先建立一张地图,可以从 AI / 人工智能ML / 机器学习DL / 深度学习LLM / 大语言模型 开始。这几篇会帮你分清“AI 是大概念,机器学习是一类方法,大语言模型只是今天最显眼的一种模型”。接着读 GenAI / 生成式 AIChatGPT Images / 图像功能Multimodal AI / 多模态 AI,就能理解为什么今天的 AI 不只是分类和预测,还能写文字、生成图片、理解多种内容。

如果你已经在用 ChatGPT、Claude 或其他 AI 工具,建议先读 Prompt / 提示词Token / 令牌Context Window / 上下文窗口Inference / 推理Hallucination / 幻觉。它们会解释你每天使用 AI 时最常遇到的现象:为什么同一句话换个问法结果不同,为什么长对话会忘事,为什么模型会一本正经地说错。

如果你想让 AI 基于自己的资料回答,或者把 AI 放进工作流程里,可以继续读 Embedding / 向量嵌入Vector Database / 向量数据库RAG / 检索增强生成GEO / 生成式引擎优化Agent / 智能体Tool Calling / 工具调用AI Workflow / AI 工作流MCP / 模型上下文协议A2A / Agent2Agent。这一路读下来,你会看到 AI 怎样从“聊天窗口”变成“能查资料、会调用工具、能和其他助手协作的办事系统”。

如果你关心 AI 服务怎么接入、怎么收费、怎么部署和怎么保护访问安全,再读 API / 应用程序接口API Key / 密钥API Relay / API 中转站AI Gateway / AI 网关Model Routing / 模型路由VPN / 虚拟专用网络Local Model / 本地模型Edge AI / 边缘 AI。这些词更像水电煤和门禁系统,不一定每天被看见,但决定了 AI 能不能稳定、安全、低成本地用起来。

最后,如果你想理解模型怎样被改造得更适合某个任务,可以读 Model Parameters / 模型参数Fine-tuning / 微调Reinforcement Learning / 强化学习Distillation / 蒸馏。如果你对“用 AI 写代码”感兴趣,可以把 Vibe Coding / 氛围编程 放在最后读,它会把前面的提示词、工具调用、上下文和工作流重新连到一个真实使用场景里。

专题路线图

flowchart LR
    AI["AI"] --> ML["ML"]
    ML --> DL["DL"]
    DL --> LLM["LLM"]
    LLM --> Prompt["Prompt"]
    LLM --> Context["上下文窗口"]
    LLM --> Params["模型参数"]
    LLM --> Inference["推理"]
    LLM --> GenAI["GenAI / Images"]
    LLM --> Vibe["Vibe Coding"]
    LLM --> RAG["RAG"]
    RAG --> Agent["Agent"]
    Agent --> MCP["MCP"]
    Agent --> A2A["A2A"]
    API["API"] --> MCP
    Relay["API Relay"] --> API
    Key["API Key"] --> API
    Gateway["AI Gateway"] --> Relay
    Router["Model Routing"] --> Gateway
    VPN["VPN"] --> Gateway
    Token["Token"] --> LLM
    Embedding["Embedding"] --> RAG
    VectorDB["Vector Database"] --> RAG
    ToolCall["Tool Calling"] --> Agent
    Multimodal["Multimodal AI"] --> GenAI
    Workflow["AI Workflow"] --> Agent
    Local["Local Model / Ollama"] --> LLM
    Edge["边缘 AI"] --> Local
    Edge --> Inference
    FineTune["Fine-tuning"] --> LLM
    Distill["蒸馏"] --> Local
    RL["强化学习"] --> ML
    RL --> Agent
    Hallucination["Hallucination"] --> RAG
    GEO["GEO"] --> RAG
    GEO --> GenAI

AI 小故事:把术语串起来

故事一:先开一家会学习的小店

可以先把 AI 世界想成一家正在升级的“智能内容小店”。AI / 人工智能 是店主的总目标:希望机器也能做一些原本需要人判断的事,比如识别顾客想要什么、推荐商品、写文案、看图片、整理资料。ML / 机器学习 像让店员从过去的订单里总结经验,而不是只按死规则办事;DL / 深度学习 则像给店员配了一套更复杂的大脑,让它能从大量图片、语音和文字里学到更细的模式。

后来店里请来了一位特别会读写和对话的总助理,这就是 LLM / 大语言模型。它不只是查字典,而是能根据前后文组织语言、解释问题、起草内容。Model Parameters / 模型参数 可以理解成这位助理长期训练后留下的“经验痕迹”,决定了它大致会怎样理解和表达。

故事二:总助理开始写文案、做图片

当这位总助理不只是分析信息,而是开始写文章、做摘要、生成图片时,就进入了 GenAI / 生成式 AI 的范围。ChatGPT Images / 图像功能 像店里的设计助手,你用自然语言描述海报、配图或修改要求,它就尝试生成视觉内容。

你给 AI 的交代,就是 Prompt / 提示词。它像对店员说:“这张海报要温暖一点,面向新手,标题别太硬。”不过这位助理一次能放在脑子里的信息有限,这就是 Context Window / 上下文窗口。而文字在它眼里也不是整篇整篇处理的,而会被切成 Token / 令牌 这样的小片段。

故事三:给助理接上资料仓库

只靠总助理自己的记忆,小店很容易出错。它可能把库存、价格、政策记混,甚至出现 Hallucination / 幻觉:说得很顺,但事实不对。于是店里给它接上资料库,这就是 RAG / 检索增强生成:先去货架和档案柜里找资料,再基于资料回答。

为了让机器知道哪些资料“意思相近”,会用 Embedding / 向量嵌入 把文字变成可比较的数字;这些向量通常会放进 Vector Database / 向量数据库,像一个按含义摆放的资料仓库。GEO / 生成式引擎优化 则像重新整理店里的说明牌和商品介绍,让 AI 助理更容易看懂、引用和推荐你的内容。

故事四:让助理从“回答”变成“办事”

当 AI 不只是回答,而是开始替你拆任务、查资料、调用工具、看结果并决定下一步时,它就更像 Agent / 智能体Tool Calling / 工具调用 像它知道什么时候该拿计算器、查库存系统、发邮件或生成表格;AI Workflow / AI 工作流 则是把“接单、查资料、写草稿、审核、发布”串成固定流程。

如果店里有好几个 AI 助理,分别负责客服、文案、数据分析和技术支持,它们之间需要一种协作语言,这就是 A2A / Agent2Agent。而 MCP / 模型上下文协议 更像统一插座标准,让不同 AI 助理更容易接入工具、文件和数据库。

故事五:把小店接入真实世界

小店要真正经营起来,还离不开接入和安全。API / 应用程序接口 像软件之间的服务窗口,外部系统通过它来下单和取结果;API Key / 密钥 像通行证,用来证明“谁在调用服务”。如果你不直接去每一家模型供应商那里排队,而是通过一个统一柜台转交请求,那就是 API Relay / API 中转站

当请求变多以后,AI Gateway / AI 网关 会像前台总管,统一管理权限、日志、成本、限流和安全;Model Routing / 模型路由 则像根据问题类型分配不同店员:简单问题给便宜快速的模型,复杂任务交给能力更强的模型。VPN / 虚拟专用网络 像给远程员工修了一条加密通道,让他们更安全地访问内部系统。

故事六:让助理更便宜、更顺手、更靠近现场

最后,还有一些词是在讲“模型怎么变得更适合现实使用”。Fine-tuning / 微调 像让总助理专门学习你店里的话术、格式和业务习惯;Reinforcement Learning / 强化学习 像它做完事后收到反馈,慢慢学会什么做法更合适;Distillation / 蒸馏 像把资深员工的经验整理成一套更轻便的培训手册,让小模型也能学到一部分能力。

Inference / 推理 是训练完成后,模型真正上岗回答问题、生成图片或执行任务的过程。如果你把模型跑在自己电脑上,就是 Local Model / 本地模型;如果模型运行在手机、摄像头、汽车或工厂设备附近,就是 Edge AI / 边缘 AI。当 AI 同时理解文字、图片、语音和视频时,它就是 Multimodal AI / 多模态 AI。而 Vibe Coding / 氛围编程,可以想成你不再亲手拧每一颗螺丝,而是告诉 AI “我想要一个什么样的软件”,再一边试用一边让它修改。

这几个故事连起来看,这些术语就不再是孤立的缩写。它们其实在讲同一件事:我们怎样训练一个会理解和生成内容的助手,怎样给它资料和工具,怎样让它接入真实系统,怎样控制成本、安全和错误,最后怎样把它放进日常工作里。

全部文章

基础概念

知识与资料

智能体与工具

接入、安全与部署

训练与优化