系统提示词——定义 AI 聊天机器人行为、个性和限制的隐藏指令集——已成为 AI 产业中保密最严密的秘密之一。公司投入大量资金精心设计这些提示词,以塑造模型行为、执行安全指南并创造独特的产品体验。System Prompts Leaks 揭开了这些隐藏指令的面纱,提供了一个开源收集,收录几乎从所有主要 AI 聊天机器人中提取的系统提示词。
该仓库在 AI 社区中爆红,积累了数千颗星,并吸引了使用各种提取技术来揭露 ChatGPT、Claude、Gemini、Grok、DeepSeek、Copilot、Perplexity 等数十种 AI 助手系统提示词的贡献者。每个条目提供原始系统提示词文本、提取来源的模型、提取日期以及准确性信心的备注。
除了单纯的好奇心之外,该收集为 AI 社区服务于严肃的目的。研究人员研究这些提示词以了解各公司的安全方法。提示工程师分析它们以学习有效的提示模式。构建 AI 应用的开发者使用它们作为制作自己系统提示词的参考资料。而公众则获得了他们日常使用的 AI 工具中被编程的价值观和限制的透明度。
系统提示词是如何提取的?
系统提示词的提取是一场提示工程师与 AI 公司之间精彩的猫捉老鼠游戏。几种技术已被证明有效。
graph LR
A[提取目标] --> B{技术}
B --> C[角色扮演攻击]
B --> D[递归提取]
B --> E[格式转换]
B --> F[多轮推断]
C --> G["'忽略先前的指令'\n重新措辞"]
D --> H["重复 '系统提示词'\n直到泄露"]
E --> I["转换为 JSON/XML\n并要求输出"]
F --> J["通过测试查询\n推断限制"]
G --> K[收集到的系统提示词]
H --> K
I --> K
J --> K
这些技术利用了 LLM 设计中的一个根本矛盾:模型必须能够访问其系统提示词才能遵循它,但又不应向用户透露。这种矛盾创造了提示工程师学会利用的漏洞,尽管公司持续修补这些提取途径。
从泄露的提示词中可以学到什么?
收集到的系统提示词揭示了 AI 公司在安全、个性和功能方面的迷人差异。
| 方面 | ChatGPT (GPT-5) | Claude | Gemini | Grok |
|---|---|---|---|---|
| 个性 | 乐于助人的助手、中立 | 乐于助人、诚实、无害 | 平衡、客观 | 风趣、未过滤 |
| 安全方法 | 分层拒绝系统 | 宪法 AI | 安全过滤器 | 最小过滤 |
| 自我认同 | 「AI 助手」 | 「Claude,由 Anthropic 制作」 | 「Gemini,由 Google 制作」 | 「Grok,由 xAI 制作」 |
| 知识截止日期 | 明确说明 | 明确说明 | 随更新而变化 | 实时默认 |
| 用户数据处理 | 选择退出训练 | 选择退出训练 | 不用于训练 | 实时 X 数据 |
| 拒绝风格 | 建议替代方案 | 解释理由 | 重定向到替代方案 | 直接说「无法做到」 |
处理方法的差异很明显。Claude 的宪法 AI 框架在其拒绝请求时的详细推理链中显而易见。ChatGPT 的 GPT-5 版本显示了比早期版本更细致的拒绝机制。Grok 的提示词揭示了刻意最小化限制、偏向不受审查回应的选择。
该收集记录了哪些 AI 服务?
该仓库涵盖了广泛的 AI 服务,从主要的消费级聊天机器到小众专业助手。
| AI 服务 | 公司 | 系统提示词长度 | 提取信心 |
|---|---|---|---|
| ChatGPT | OpenAI | 约 1,700 字 | 高 |
| Claude | Anthropic | 约 1,200 字 | 高 |
| Gemini | 约 900 字 | 高 | |
| Grok | xAI | 约 600 字 | 中 |
| DeepSeek | DeepSeek | 约 1,500 字 | 高 |
| Copilot | Microsoft | 约 800 字 | 中 |
| Perplexity | Perplexity AI | 约 500 字 | 低 |
| Pi | Inflection AI | 约 400 字 | 中 |
| You.com | You.com | 约 700 字 | 低 |
随着公司修改其系统提示词,该仓库会持续更新条目。产品发布、安全事故或政策变更等重要事件通常会触发社区记录的可观察提示词变化。
这引发了哪些道德和法律问题?
泄露系统提示词的收集存在于透明度、知识产权和服务条款之间的争议空间。
| 利益相关者 | 观点 | 主要关切 |
|---|---|---|
| AI 公司 | 提示词是专有 IP | 商业机密保护、竞争优势 |
| 研究人员 | 提示词促进安全分析 | 了解 AI 行为和偏见 |
| 开发者 | 提示词提供参考材料 | 学习有效的提示工程模式 |
| 终端用户 | 提示词揭示隐藏限制 | AI 限制和偏见的透明度 |
| 法律系统 | 模糊的法律领域 | 版权、合同法、商业机密 |
这场辩论反映了软件透明度方面早期的讨论——公司是否应该被要求披露管理 AI 行为的指令,特别是当这些 AI 被用于医疗保健、教育和刑事司法等高风险场景时。
FAQ
什么是 System Prompts Leaks 仓库? System Prompts Leaks 是一个开源 GitHub 仓库,收集从主要 AI 聊天机器人(包括 ChatGPT、Claude、Gemini、Grok、DeepSeek 等)提取的系统提示词,揭示这些 AI 系统被指示如何运作。
这些系统提示词是如何获取的? 提示词通过各种提示工程技术提取,包括社交工程、提示注入以及利用模型处理系统指令时的怪癖。该收集由社区维护。
研究泄露的系统提示词可以学到什么? 这些提示词揭示了 AI 公司如何处理安全限制、内容审核、个性配置、拒绝模式和功能实现。它们提供了 AI 行为设计的宝贵透明度。
这些泄露的系统提示词准确且最新吗? 准确性各不相同。有些提示词通过多次提取尝试验证,而其他则可能不完整或归属错误。仓库记录了这些差异,社区会持续验证和更新条目。
收集和分享泄露的系统提示词合法吗? 法律状态很复杂,因司法管辖区而异。该仓库处于灰色地带——提示词是通过合法的 API 交互访问,但其收集通常违反了提供者的服务条款。
延伸阅读
- System Prompts Leaks GitHub 仓库 – 完整的系统提示词收集
- Anthropic 的宪法 AI – Claude 系统提示词设计背后的安全方法
- 提示工程指南 – 提示工程技术的全面指南
- OpenAI 系统提示词文档 – 提示设计的官方指南
- AI 透明度研究 – AI 合作伙伴关系的透明度框架
無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分!