過去一年出現了大量的「AI 代理」產品,承諾能自主瀏覽網路、撰寫程式碼並完成複雜任務。其中大多數——Manus AI、Operator 以及其他基於雲端的代理——會將您的資料發送到遠端伺服器進行處理。Fosowl 的 AgenticSeek 採取了一種截然不同的方法:它完全在您的本地機器上執行,在不犧牲隱私的情況下提供自主 AI 代理能力,並在此過程中獲得了超過 25,000 個 GitHub 星星。
AgenticSeek 是一款開源自主代理,將網頁瀏覽、程式碼執行、檔案管理與任務規劃結合成一個獨立的系統。它直接與 Manus AI 等基於雲端的代理競爭,但具有決定性的隱私優勢——每次操作都在您的硬體上進行。您的瀏覽歷史、文件與生成的程式碼永遠不會離開您的機器,除非您明確選擇分享它們。
該代理的架構專為自主性而設計。給定一個複雜的請求,如「研究 AI 文件解析領域的前 5 名競爭對手,分析他們的定價,並建立一個比較電子表格」,AgenticSeek 會分解任務、瀏覽相關網站、提取資料、撰寫分析程式碼並產出成果,無需逐步指導。
graph TD
A[使用者請求] --> B[任務分解]
B --> C[計劃生成]
C --> D{執行循環}
D --> E[瀏覽網路]
D --> F[撰寫程式碼]
D --> G[讀取檔案]
D --> H[處理資料]
E --> I[結果驗證]
F --> I
G --> I
H --> I
I --> J{成功?}
J -->|否| K[重試 / 調整]
K --> D
J -->|是| L[彙總結果]
L --> M[最終輸出]AgenticSeek 的自主執行如何運作?
AgenticSeek 的核心能力是自主任務執行。代理不僅回應提示——它會規劃、執行、驗證與調整。
| 階段 | 發生什麼 | 使用的工具 |
|---|---|---|
| 任務分解 | 將使用者請求分解為離散子任務 | LLM 推理 |
| 規劃 | 確定執行順序與依賴關係 | 思維鏈規劃 |
| 網路研究 | 瀏覽網站、提取內容、跟隨連結 | 無頭瀏覽器、搜尋 API |
| 程式碼生成 | 撰寫並執行資料處理腳本 | Python / JavaScript 沙箱 |
| 檔案操作 | 讀取、寫入、組織檔案與目錄 | 本地檔案系統存取 |
| 驗證 | 根據需求檢查結果 | LLM 自我驗證 |
| 彙總 | 將輸出合併為最終成果 | Markdown、CSV、程式碼輸出 |
代理會先顯示其計劃再執行,讓使用者可以審查、批准、修改或拒絕個別步驟。這種人機協作檢查點在防止不必要的操作的同時,保持了複雜多步驟任務所需的自主性。
AgenticSeek 提供哪些隱私與安全功能?
隱私是 AgenticSeek 與 Manus AI 等雲端代理的主要區別。代價是本地執行需要更強大的硬體,但對於注重隱私的使用者與擁有敏感資料的組織來說,這是一個不容妥協的要求。
| 面向 | 雲端代理(Manus AI) | AgenticSeek(本地) |
|---|---|---|
| 資料處理位置 | 遠端伺服器 | 本地機器 |
| 網頁瀏覽 | 透過雲端代理 | 直接從您的機器 |
| 程式碼執行 | 雲端沙箱 | 本地沙箱 |
| 檔案存取 | 僅上傳的文件 | 完整本地檔案系統 |
| LLM 推理 | 由提供商管理 | 本地或帶隱私過濾器的 API |
| 網路依賴 | 始終在線 | 可完全離線運作(使用本地模型) |
| 資料保留政策 | 由提供商控制 | 無(使用者完全掌控) |
對於處理敏感資料的組織——法律文件、財務記錄、專有程式碼——AgenticSeek 的純本地架構消除了雲端代理服務固有的資料外洩風險。代理可以處理機密文件,而無需將它們暴露給外部 API。
有哪些模型與配置選項可用?
AgenticSeek 支援靈活的模型配置系統,可適應可用硬體。
flowchart LR
A[AgenticSeek] --> B{選擇推理模式}
B --> C[僅本地]
B --> D[基於 API]
B --> E[混合]
C --> F[Ollama:Llama 4、Qwen 2.5、DeepSeek]
D --> G[OpenAI / Anthropic / DeepSeek API]
E --> H[規劃:大型 API 模型\n執行:小型本地模型]| 配置 | 模型 | 所需 RAM | 速度 | 隱私 |
|---|---|---|---|---|
| 純本地(輕量) | 透過 Ollama 的 Llama 4 8B | 16 GB | 中等 | 最高 |
| 純本地(高效能) | 透過 Ollama 的 DeepSeek R1 70B | 48 GB | 慢 | 最高 |
| 僅 API | GPT-4o 或 Claude 4 | 8 GB | 快 | 中等 |
| 混合(建議) | 規劃:GPT-4o,執行:Llama 4 | 16 GB | 快 | 良好 |
混合配置是最受歡迎的。代理對複雜規劃與推理使用雲端 API 呼叫,而例行執行操作則透過本地模型進行。這在成本、速度與隱私之間取得了平衡——敏感的檔案處理保持本地,而計算密集的推理任務則利用強大的雲端模型。
AgenticSeek 與 Manus AI 及其他代理相比如何?
自主代理領域有幾個競爭者,各有不同的定位。
| 功能 | AgenticSeek | Manus AI | Claude Code Agent |
|---|---|---|---|
| 開源 | 是(MIT) | 否(專有) | 否(專有) |
| 本地執行 | 完整 | 否 | 有限(API 呼叫) |
| 網頁瀏覽 | 是 | 是 | 否(原生) |
| 程式碼執行 | 是 | 是 | 是(透過 shell) |
| 檔案管理 | 是 | 有限 | 是 |
| GitHub 星星 | 25K+ | 不適用 | 不適用 |
| 隱私層級 | 最高 | 依提供商而定 | 依提供商而定 |
AgenticSeek 佔據了獨特的利基市場,是唯一完全開源、完全本地的自主代理。雖然 Manus AI 提供了精緻的雲端體驗,Claude Code 提供了深入的 IDE 整合,但 AgenticSeek 是優先考慮隱私並希望擁有真正屬於自己代理的使用者的首選。
FAQ
什麼是 AgenticSeek? AgenticSeek 是由 Fosowl 建構的開源自主 AI 代理,完全在您的本地機器上執行。它可以瀏覽網路、撰寫與執行程式碼、規劃複雜任務以及與檔案互動——全部無需將資料發送給第三方服務。作為以隱私為優先的雲端代理(如 Manus AI)本地替代方案,它已累積超過 25,000 個 GitHub 星星。
AgenticSeek 如何保護我的隱私? AgenticSeek 100% 在您的機器上本地執行。不會將資料發送到外部伺服器。所有網路瀏覽、程式碼執行與檔案操作都在您的本地環境中進行。代理可以選擇性地透過 Ollama 使用本地開源模型,即使 LLM 推理也保持在本地。
AgenticSeek 支援哪些模型? AgenticSeek 支援 DeepSeek 模型(V3、R1)、OpenAI(GPT-4o、o3)、Anthropic(Claude 3.7 Sonnet、Claude 4),以及透過 Ollama 支援的本地模型(Llama 4、Qwen 2.5、DeepSeek Coder)。代理會根據任務複雜度動態選擇模型。
AgenticSeek 如何處理任務規劃? AgenticSeek 使用結構化規劃循環:(1) 將使用者的請求分解為子任務,(2) 對子任務進行優先級排序與排序,(3) 使用適當工具執行每個子任務,(4) 驗證結果並在必要時迭代,(5) 將輸出彙總為最終回應。
AgenticSeek 的安裝要求是什麼? 透過 npm 安裝:’npx agenticseek’。需要 Node.js 18+ 與至少 8GB RAM。對於本地模型推理,需要 Ollama 與至少 16GB RAM(70B+ 參數模型建議 32GB)。也提供 Docker 安裝。支援 macOS、Linux 與 Windows(透過 WSL2)。
延伸閱讀
- AgenticSeek GitHub 倉庫 – 原始碼、問題與社群貢獻
- Manus AI 官方網站 – AgenticSeek 作為替代方案的雲端代理
- Ollama 本地模型 – 執行本地 LLM,實現完全私密的 AgenticSeek 部署
- DeepSeek R1 論文 – 與 AgenticSeek 廣泛用於規劃的推理模型
無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分!