Claude Design System Prompts Leaked on GitHub — Here’s What Developers Can Actually Learn

最近 GitHub 上出现了一个仓库,把 Claude 的设计系统提示词直接公开了。说白了,就是 Anthropic 用来控制 Claude 对话风格和输出格式的那套底层指令,被人扒下来当开源项目放了上去。虽然官方还没回应,但作为经常折腾 AI 工具的人,我觉得这东西确实有点意思。

先别急着想“泄露”这个词听起来多严重。实际看下来,这些提示词更像是一套精心设计的工程文档。比如里面定义了 Claude 应该以什么语气回答、如何拒绝不合理请求、怎么处理多轮对话的一致性。最吸引我的是它对“简洁”和“实用”的执着——提示词里反复强调不要过度解释、不要在回答结尾加“有什么可以帮你的吗”这种废话。

如果你写过 prompt,应该知道最头疼的就是让模型保持稳定输出。官方提示词直接给出了参考:用明确的 if-then 逻辑控制角色边界,把长指令拆成短段落,每个段落只负责一个约束。这种结构化思路,比市面上大部分教程说的“用正向引导”要具体得多。

当然,这个仓库被删只是时间问题。所以如果你感兴趣,建议尽快去看。顺便说一句,哪怕只是把这些提示词当作学习素材,你也能清楚感受到一个大厂是如何用 prompt 来“对齐”模型行为的——这不是魔法,是工程。

唯一的遗憾是,仓库里没有附带调用这些提示词的客户端代码。不过单独看提示词本身,已经能让你对 AI 应用的落地设计有不少新想法。