系統提示詞──定義 AI 聊天機器人行為、個性和限制的隱藏指令集──已成為 AI 產業中保密最嚴密的秘密之一。公司投入大量資金精心設計這些提示詞,以塑造模型行為、執行安全指南並創造獨特的產品體驗。System Prompts Leaks 揭開了這些隱藏指令的面紗,提供了一個開源收集,收錄幾乎所有主要 AI 聊天機器人中提取的系統提示詞。
該倉庫在 AI 社群中爆紅,累積了數千顆星,並吸引了使用各種提取技術來揭露 ChatGPT、Claude、Gemini、Grok、DeepSeek、Copilot、Perplexity 等數十種 AI 助手系統提示詞的貢獻者。每個條目提供原始系統提示詞文字、提取來源的模型、提取日期以及準確性信心的備註。
除了單純的好奇心之外,該收集為 AI 社群服務於嚴肅的目的。研究人員研究這些提示詞以了解各公司的安全方法。提示工程師分析它們以學習有效的提示模式。建立 AI 應用的開發者使用它們作為製作自己系統提示詞的參考資料。而公眾則獲得了他們日常使用的 AI 工具中被編程的價值觀和限制的透明度。
系統提示詞是如何提取的?
系統提示詞的提取是一場提示工程師與 AI 公司之間精彩的貓捉老鼠遊戲。幾種技術已被證明有效。
graph LR
A[提取目標] --> B{技術}
B --> C[角色扮演攻擊]
B --> D[遞迴提取]
B --> E[格式轉換]
B --> F[多輪推斷]
C --> G["'忽略先前的指令'\n重新措辭"]
D --> H["重複 '系統提示詞'\n直到洩漏"]
E --> I["轉換為 JSON/XML\n並要求輸出"]
F --> J["透過測試查詢\n推斷限制"]
G --> K[收集到的系統提示詞]
H --> K
I --> K
J --> K
這些技術利用了 LLM 設計中的一個根本矛盾:模型必須能夠存取其系統提示詞才能遵循它,但又不應向使用者透露。這種矛盾創造了提示工程師學會利用的漏洞,儘管公司持續修補這些提取途徑。
從洩漏的提示詞中可以學到什麼?
收集到的系統提示詞揭示了 AI 公司在安全、個性和功能方面的迷人差異。
| 面向 | ChatGPT (GPT-5) | Claude | Gemini | Grok |
|---|---|---|---|---|
| 個性 | 樂於助人的助手、中立 | 樂於助人、誠實、無害 | 平衡、客觀 | 風趣、未過濾 |
| 安全方法 | 分層拒絕系統 | 憲法 AI | 安全過濾器 | 最小過濾 |
| 自我認同 | 「AI 助手」 | 「Claude,由 Anthropic 製作」 | 「Gemini,由 Google 製作」 | 「Grok,由 xAI 製作」 |
| 知識截止日期 | 明確說明 | 明確說明 | 隨更新而變化 | 即時預設 |
| 使用者資料處理 | 選擇退出訓練 | 選擇退出訓練 | 不用於訓練 | 即時 X 資料 |
| 拒絕風格 | 建議替代方案 | 解釋理由 | 重新導向到替代方案 | 直接說「無法做到」 |
處理方法的差異很明顯。Claude 的憲法 AI 框架在其拒絕請求時的詳細推理鏈中顯而易見。ChatGPT 的 GPT-5 版本顯示了比早期版本更細緻的拒絕機制。Grok 的提示詞揭示了刻意最小化限制、偏向不受審查回應的選擇。
該收集記錄了哪些 AI 服務?
該倉庫涵蓋了廣泛的 AI 服務,從主要的消費級聊天機器人到小眾專業助手。
| AI 服務 | 公司 | 系統提示詞長度 | 提取信心 |
|---|---|---|---|
| ChatGPT | OpenAI | 約 1,700 字 | 高 |
| Claude | Anthropic | 約 1,200 字 | 高 |
| Gemini | 約 900 字 | 高 | |
| Grok | xAI | 約 600 字 | 中 |
| DeepSeek | DeepSeek | 約 1,500 字 | 高 |
| Copilot | Microsoft | 約 800 字 | 中 |
| Perplexity | Perplexity AI | 約 500 字 | 低 |
| Pi | Inflection AI | 約 400 字 | 中 |
| You.com | You.com | 約 700 字 | 低 |
隨著公司修改其系統提示詞,該倉庫會持續更新條目。產品發布、安全事故或政策變更等重要事件通常會觸發社群記錄的可觀察提示詞變化。
這引發了哪些道德和法律問題?
洩漏系統提示詞的收集存在於透明度、智慧財產權和服務條款之間的爭議空間。
| 利益相關者 | 觀點 | 主要關切 |
|---|---|---|
| AI 公司 | 提示詞是專有 IP | 商業機密保護、競爭優勢 |
| 研究人員 | 提示詞促進安全分析 | 了解 AI 行為和偏見 |
| 開發者 | 提示詞提供參考材料 | 學習有效的提示工程模式 |
| 終端使用者 | 提示詞揭示隱藏限制 | AI 限制和偏見的透明度 |
| 法律系統 | 模糊的法律領域 | 版權、合約法、商業機密 |
這場辯論反映了軟體透明度方面早期的討論──公司是否應該被要求揭露管理 AI 行為的指令,特別是當這些 AI 被用於醫療保健、教育和刑事司法等高風險情境時。
FAQ
什麼是 System Prompts Leaks 倉庫? System Prompts Leaks 是一個開源 GitHub 倉庫,收集從主要 AI 聊天機器人(包括 ChatGPT、Claude、Gemini、Grok、DeepSeek 等)提取的系統提示詞,揭示這些 AI 系統被指示如何運作。
這些系統提示詞是如何取得的? 提示詞透過各種提示工程技術提取,包括社交工程、提示注入以及利用模型處理系統指令時的怪癖。該收集由社群維護。
研究洩漏的系統提示詞可以學到什麼? 這些提示詞揭示了 AI 公司如何處理安全限制、內容審查、個性配置、拒絕模式和功能實作。它們提供了 AI 行為設計的寶貴透明度。
這些洩漏的系統提示詞準確且最新嗎? 準確性各不相同。有些提示詞透過多次提取嘗試驗證,而其他則可能不完整或歸屬錯誤。倉庫記錄了這些差異,社群會持續驗證和更新條目。
收集和分享洩漏的系統提示詞合法嗎? 法律狀態很複雜,因司法管轄區而異。該倉庫處於灰色地帶──提示詞是透過合法的 API 互動存取,但其收集通常違反了提供者的服務條款。
延伸閱讀
- System Prompts Leaks GitHub 倉庫 – 完整的系統提示詞收集
- Anthropic 的憲法 AI – Claude 系統提示詞設計背後的安全方法
- 提示工程指南 – 提示工程技術的全面指南
- OpenAI 系統提示詞文件 – 提示設計的官方指南
- AI 透明度研究 – AI 合作夥伴關係的透明度框架
無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分!