AI

System Prompts Leaks:爆紅的開源 AI 系統提示詞收集

System Prompts Leaks 是一個受歡迎的開源收集,收錄從 ChatGPT、Claude、Gemini、Grok 等主要 AI 聊天機器人中提取的系統提示詞。

Keeping this site alive takes effort — your support means everything.
無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分! 無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分!
System Prompts Leaks:爆紅的開源 AI 系統提示詞收集

系統提示詞──定義 AI 聊天機器人行為、個性和限制的隱藏指令集──已成為 AI 產業中保密最嚴密的秘密之一。公司投入大量資金精心設計這些提示詞,以塑造模型行為、執行安全指南並創造獨特的產品體驗。System Prompts Leaks 揭開了這些隱藏指令的面紗,提供了一個開源收集,收錄幾乎所有主要 AI 聊天機器人中提取的系統提示詞。

該倉庫在 AI 社群中爆紅,累積了數千顆星,並吸引了使用各種提取技術來揭露 ChatGPT、Claude、Gemini、Grok、DeepSeek、Copilot、Perplexity 等數十種 AI 助手系統提示詞的貢獻者。每個條目提供原始系統提示詞文字、提取來源的模型、提取日期以及準確性信心的備註。

除了單純的好奇心之外,該收集為 AI 社群服務於嚴肅的目的。研究人員研究這些提示詞以了解各公司的安全方法。提示工程師分析它們以學習有效的提示模式。建立 AI 應用的開發者使用它們作為製作自己系統提示詞的參考資料。而公眾則獲得了他們日常使用的 AI 工具中被編程的價值觀和限制的透明度。


系統提示詞是如何提取的?

系統提示詞的提取是一場提示工程師與 AI 公司之間精彩的貓捉老鼠遊戲。幾種技術已被證明有效。

graph LR
    A[提取目標] --> B{技術}
    B --> C[角色扮演攻擊]
    B --> D[遞迴提取]
    B --> E[格式轉換]
    B --> F[多輪推斷]
    C --> G["'忽略先前的指令'\n重新措辭"]
    D --> H["重複 '系統提示詞'\n直到洩漏"]
    E --> I["轉換為 JSON/XML\n並要求輸出"]
    F --> J["透過測試查詢\n推斷限制"]
    G --> K[收集到的系統提示詞]
    H --> K
    I --> K
    J --> K

這些技術利用了 LLM 設計中的一個根本矛盾:模型必須能夠存取其系統提示詞才能遵循它,但又不應向使用者透露。這種矛盾創造了提示工程師學會利用的漏洞,儘管公司持續修補這些提取途徑。


從洩漏的提示詞中可以學到什麼?

收集到的系統提示詞揭示了 AI 公司在安全、個性和功能方面的迷人差異。

面向ChatGPT (GPT-5)ClaudeGeminiGrok
個性樂於助人的助手、中立樂於助人、誠實、無害平衡、客觀風趣、未過濾
安全方法分層拒絕系統憲法 AI安全過濾器最小過濾
自我認同「AI 助手」「Claude,由 Anthropic 製作」「Gemini,由 Google 製作」「Grok,由 xAI 製作」
知識截止日期明確說明明確說明隨更新而變化即時預設
使用者資料處理選擇退出訓練選擇退出訓練不用於訓練即時 X 資料
拒絕風格建議替代方案解釋理由重新導向到替代方案直接說「無法做到」

處理方法的差異很明顯。Claude 的憲法 AI 框架在其拒絕請求時的詳細推理鏈中顯而易見。ChatGPT 的 GPT-5 版本顯示了比早期版本更細緻的拒絕機制。Grok 的提示詞揭示了刻意最小化限制、偏向不受審查回應的選擇。


該收集記錄了哪些 AI 服務?

該倉庫涵蓋了廣泛的 AI 服務,從主要的消費級聊天機器人到小眾專業助手。

AI 服務公司系統提示詞長度提取信心
ChatGPTOpenAI約 1,700 字
ClaudeAnthropic約 1,200 字
GeminiGoogle約 900 字
GrokxAI約 600 字
DeepSeekDeepSeek約 1,500 字
CopilotMicrosoft約 800 字
PerplexityPerplexity AI約 500 字
PiInflection AI約 400 字
You.comYou.com約 700 字

隨著公司修改其系統提示詞,該倉庫會持續更新條目。產品發布、安全事故或政策變更等重要事件通常會觸發社群記錄的可觀察提示詞變化。


這引發了哪些道德和法律問題?

洩漏系統提示詞的收集存在於透明度、智慧財產權和服務條款之間的爭議空間。

利益相關者觀點主要關切
AI 公司提示詞是專有 IP商業機密保護、競爭優勢
研究人員提示詞促進安全分析了解 AI 行為和偏見
開發者提示詞提供參考材料學習有效的提示工程模式
終端使用者提示詞揭示隱藏限制AI 限制和偏見的透明度
法律系統模糊的法律領域版權、合約法、商業機密

這場辯論反映了軟體透明度方面早期的討論──公司是否應該被要求揭露管理 AI 行為的指令,特別是當這些 AI 被用於醫療保健、教育和刑事司法等高風險情境時。


FAQ

什麼是 System Prompts Leaks 倉庫? System Prompts Leaks 是一個開源 GitHub 倉庫,收集從主要 AI 聊天機器人(包括 ChatGPT、Claude、Gemini、Grok、DeepSeek 等)提取的系統提示詞,揭示這些 AI 系統被指示如何運作。

這些系統提示詞是如何取得的? 提示詞透過各種提示工程技術提取,包括社交工程、提示注入以及利用模型處理系統指令時的怪癖。該收集由社群維護。

研究洩漏的系統提示詞可以學到什麼? 這些提示詞揭示了 AI 公司如何處理安全限制、內容審查、個性配置、拒絕模式和功能實作。它們提供了 AI 行為設計的寶貴透明度。

這些洩漏的系統提示詞準確且最新嗎? 準確性各不相同。有些提示詞透過多次提取嘗試驗證,而其他則可能不完整或歸屬錯誤。倉庫記錄了這些差異,社群會持續驗證和更新條目。

收集和分享洩漏的系統提示詞合法嗎? 法律狀態很複雜,因司法管轄區而異。該倉庫處於灰色地帶──提示詞是透過合法的 API 互動存取,但其收集通常違反了提供者的服務條款。


延伸閱讀

TAG