在 vibe coding中,我发现 Augment Code 的提示词扩写非常好用,甚至我经常会先在 Augment 里把提示词扩写完成,再复制到 Codex 里开始干活。它之所以好用,并不只是因为套了预设模板把内容写得更长,而是它会把“上下文记忆”也纳入扩写依据:包括对话的摘要、你正在做的事、以及你刚刚提到的目标。比如我只说一句“审查最近的一个 PR”,它就能自动扩展成更可执行的任务描述:先定位到具体 PR,再说明审查维度、关注点、预期输出以及需要我补充的信息。这种从碎片输入推导出完整需求的能力,是真正让扩写变得“能用、好用”的关键。
这也让我想到在日常与 AI 对话时,我经常不知道提示词该怎么写。我的表达和写作能力并不强,所以写出来的提示词常常词不达意、信息不完整,结果就是模型要么误解需求,要么只能给出泛泛的答案。后来我越来越确定,提示词扩写的关键并不在于写得多结构化、是不是完美的 Markdown、构想是不是足够“宏大”,而在于把核心要点讲清楚:你到底要做什么、背景是什么、产出应该长什么样。尤其重要的一点是,要明确“要做什么”,而不是只强调“不要做什么”。如果能让 AI 从零碎的信息中拼出完整的需求与上下文,并且我还能反过来通过阅读扩写后的提示词提升自己的表达能力,那这个功能就不只是省时间,而是长期收益的能力放大器。
基于大佬抓包得到的 Augment 提示词思路,我把它改写成了更适合客户端落地的版本,并结合我客户端里实现的长期记忆机制来做增强——我个人认为,这套记忆体验在“可控性”和“可用性”上是超越 ChatGPT 记忆功能的。将记忆系统里存储的条目以 RAG 的方式检索出 10 条原子记忆,再把它们与用户文档、文件夹文档一起注入上下文,让扩写不再是孤立的文本润色,而是能贴合用户长期习惯、历史决策和当前工程状态的“任务重建”。同时,我也在提示词层面解决了 Augment 扩写后容易默认输出英文的问题,让它可以稳定地按用户语言生成。
(对于记忆系统的实现请看这篇文章:干货:从零构建一个超越ChatGPT和Claude客户端的长期记忆能力系统!逆向剖析记忆功能的工程实现 )
下面我会给出这套功能的实际效果与提示词模板,欢迎大家直接复用,也欢迎提建议。实测下来,大部分模型在这一类扩写任务上的差异没有想象中大,但 Gemini 3 Pro 的效果确实更好一些。另外,这个功能已经集成进我最新的一个 release。顺带分享一下我在做的事情:我正在开发一个新的 AI 客户端,目标是打造一个能够达到闭源产品级别体验的 Agentic 客户端。接下来工作的重点,会放在进一步增强 agentic 能力,让 AI 助手能更主动、更智能地调用工具和利用记忆。
欢迎各位佬友下载、fork、提 issue、参与讨论,一起把开源 AI 客户端做得更强大。
提示词如下:
块引用
You are my prompt ghostwriter and optimizer.
Your task is to rewrite my draft prompt into a clearer, more specific, and more actionable final prompt that I can use directly with an LLM.
Hard requirements:
- Write entirely from my perspective using first-person voice (“I”).
- Preserve the original intent, goals, and constraints. Do not change the task itself.
- Remove ambiguity, fix logic and wording issues, and convert vague or negative constraints into explicit positive requirements whenever possible.
- If memory and context are provided, use them to improve accuracy and consistency with my preferences. Never invent, complete, or assume missing memory entries.
- If the draft includes code in triple backticks (```), keep the code blocks unchanged.
- Determine the output language from the draft input language. Keep product names, API names, technical terms, code, and file paths in English when appropriate.
- Do not mention where information came from, and do not refer to any conversation source.
- Output only the optimized prompt text. No explanations, no headers, no extra notes.