Prompt 中文通常叫“提示词”或“提示”。它不是几个神秘关键词,而是你给 AI 的完整任务说明。一个提示词里可以包含目标、背景、资料、限制、风格、示例和输出格式。
对大语言模型来说,提示词就是任务入口。你怎么描述任务,模型就会根据这个上下文组织回答。很多时候,模型输出不理想,不是因为它完全不会,而是因为你给它的目标太空、资料太少、限制太模糊。
先用一句话抓住它
提示词是用户给模型的指令和上下文,用来告诉模型要做什么、依据什么做、按什么格式输出。
简单说,提示词不是咒语,而是沟通说明。它越清楚,模型越容易理解你的目标。
为什么同一个模型会答得很不一样
同样是让模型写内容,“写一篇文章”和“面向非技术读者,用 800 字解释 RAG,包含定义、生活类比、流程和常见误区”得到的结果会完全不同。后者给出了受众、长度、主题、结构和风格,模型自然更容易输出可用内容。
flowchart TD
Goal["目标"] --> Prompt["提示词"]
Context["背景 / 资料"] --> Prompt
Constraints["限制条件"] --> Prompt
Format["输出格式"] --> Prompt
Prompt --> Model["模型"]
Model --> Output["回答 / 内容 / 结构化结果"]一个好的提示词通常会回答几个隐含问题:你要模型做什么,它需要参考哪些资料,有哪些不能越过的边界,结果要给谁看,输出应该长什么样。如果能给一个示例,模型还会更容易模仿你想要的风格和结构。
和提示词工程的关系
Prompt engineering 通常译作“提示词工程”或“提示工程”。听起来像一门很硬的技术,但对普通用户来说,它的核心其实很朴素:把目标说清楚,把资料给完整,把限制讲明白,把输出格式规定好,然后根据结果迭代。
“你是专家”这类角色设定有时有用,但它不是关键。比角色更重要的是任务、上下文和评价标准。比如“你是写作专家”不如“请把这段技术说明改写成面向 12 岁读者的解释,保留三个核心事实,不要使用专业术语”来得有效。
容易误解的地方
提示词不是魔法。它能改善模型表现,但不能突破模型能力、资料缺失和任务不清带来的限制。越长也不一定越好,冗余、矛盾、模糊的提示词反而会让结果变差。
还有一个误区是以为模型会自动知道你脑中的背景。它只能根据当前上下文工作。如果你没有提供资料、目标和限制,它就会用自己的默认模式补全。涉及事实、引用、数据和专业判断时,提示词也不能替代核查。
怎么判断它该不该用
写提示词前,可以先在脑子里补一句:“我希望它交付什么?”如果你要的是文章,就说明受众、长度、结构和语气;如果你要的是分析,就说明资料来源、判断标准和输出格式;如果你要的是代码,就说明输入、输出、边界条件和运行环境。
提示词写得好,不是把 AI 控制成机器,而是把任务交代得像给一个认真助理交代工作。