过去一年出现了大量的「AI 代理」产品,承诺能自主浏览网页、编写代码并完成复杂任务。其中大多数——Manus AI、Operator 以及其他基于云的代理——会将您的数据发送到远程服务器进行处理。Fosowl 的 AgenticSeek 采取了一种截然不同的方法:它完全在您的本地机器上运行,在不牺牲隐私的情况下提供自主 AI 代理能力,并在此过程中获得了超过 25,000 个 GitHub 星标。
AgenticSeek 是一款开源自主代理,将网页浏览、代码执行、文件管理与任务规划结合成一个独立的系统。它直接与 Manus AI 等基于云的代理竞争,但具有决定性的隐私优势——每次操作都在您的硬件上进行。您的浏览历史、文档与生成的代码永远不会离开您的机器,除非您明确选择分享它们。
该代理的架构专为自主性而设计。给定一个复杂的请求,如「研究 AI 文档解析领域的前 5 名竞争对手,分析他们的定价,并建立一个比较电子表格」,AgenticSeek 会分解任务、浏览相关网站、提取数据、编写分析代码并产出成果,无需逐步指导。
graph TD
A[用户请求] --> B[任务分解]
B --> C[计划生成]
C --> D{执行循环}
D --> E[浏览网页]
D --> F[编写代码]
D --> G[读取文件]
D --> H[处理数据]
E --> I[结果验证]
F --> I
G --> I
H --> I
I --> J{成功?}
J -->|否| K[重试 / 调整]
K --> D
J -->|是| L[汇总结果]
L --> M[最终输出]AgenticSeek 的自主执行如何工作?
AgenticSeek 的核心能力是自主任务执行。代理不仅响应提示——它会规划、执行、验证与调整。
| 阶段 | 发生什么 | 使用的工具 |
|---|---|---|
| 任务分解 | 将用户请求分解为离散子任务 | LLM 推理 |
| 规划 | 确定执行顺序与依赖关系 | 思维链规划 |
| 网络研究 | 浏览网站、提取内容、跟随链接 | 无头浏览器、搜索 API |
| 代码生成 | 编写并执行数据处理脚本 | Python / JavaScript 沙箱 |
| 文件操作 | 读取、写入、组织文件与目录 | 本地文件系统访问 |
| 验证 | 根据需求检查结果 | LLM 自我验证 |
| 汇总 | 将输出合并为最终成果 | Markdown、CSV、代码输出 |
代理会先显示其计划再执行,让用户可以审查、批准、修改或拒绝单个步骤。这种人机协作检查点在防止不必要的操作的同时,保持了复杂多步任务所需的自主性。
AgenticSeek 提供哪些隐私与安全功能?
隐私是 AgenticSeek 与 Manus AI 等云端代理的主要区别。代价是本地执行需要更强大的硬件,但对于注重隐私的用户与拥有敏感数据的组织来说,这是一个不容妥协的要求。
| 方面 | 云端代理(Manus AI) | AgenticSeek(本地) |
|---|---|---|
| 数据处理位置 | 远程服务器 | 本地机器 |
| 网页浏览 | 通过云代理 | 直接从您的机器 |
| 代码执行 | 云端沙箱 | 本地沙箱 |
| 文件访问 | 仅上传的文档 | 完整本地文件系统 |
| LLM 推理 | 由提供商管理 | 本地或带隐私过滤器的 API |
| 网络依赖 | 始终在线 | 可完全离线工作(使用本地模型) |
| 数据保留策略 | 由提供商控制 | 无(用户完全控制) |
对于处理敏感数据的组织——法律文件、财务记录、专有代码——AgenticSeek 的纯本地架构消除了云代理服务固有的数据泄露风险。代理可以处理机密文档,而无需将它们暴露给外部 API。
有哪些模型与配置选项可用?
AgenticSeek 支持灵活的模型配置系统,可适应可用硬件。
flowchart LR
A[AgenticSeek] --> B{选择推理模式}
B --> C[仅本地]
B --> D[基于 API]
B --> E[混合]
C --> F[Ollama:Llama 4、Qwen 2.5、DeepSeek]
D --> G[OpenAI / Anthropic / DeepSeek API]
E --> H[规划:大型 API 模型\n执行:小型本地模型]| 配置 | 模型 | 所需 RAM | 速度 | 隐私 |
|---|---|---|---|---|
| 纯本地(轻量) | 通过 Ollama 的 Llama 4 8B | 16 GB | 中等 | 最高 |
| 纯本地(高性能) | 通过 Ollama 的 DeepSeek R1 70B | 48 GB | 慢 | 最高 |
| 仅 API | GPT-4o 或 Claude 4 | 8 GB | 快 | 中等 |
| 混合(推荐) | 规划:GPT-4o,执行:Llama 4 | 16 GB | 快 | 良好 |
混合配置是最受欢迎的。代理对复杂规划与推理使用云端 API 调用,而例行执行操作则通过本地模型进行。这在成本、速度与隐私之间取得了平衡——敏感的文件处理保持本地,而计算密集的推理任务则利用强大的云端模型。
AgenticSeek 与 Manus AI 及其他代理相比如何?
自主代理领域有几个竞争者,各有不同的定位。
| 功能 | AgenticSeek | Manus AI | Claude Code Agent |
|---|---|---|---|
| 开源 | 是(MIT) | 否(专有) | 否(专有) |
| 本地执行 | 完整 | 否 | 有限(API 调用) |
| 网页浏览 | 是 | 是 | 否(原生) |
| 代码执行 | 是 | 是 | 是(通过 shell) |
| 文件管理 | 是 | 有限 | 是 |
| GitHub 星标 | 25K+ | 不适用 | 不适用 |
| 隐私级别 | 最高 | 取决于提供商 | 取决于提供商 |
AgenticSeek 占据了独特的利基市场,是唯一完全开源、完全本地的自主代理。虽然 Manus AI 提供了精致的云端体验,Claude Code 提供了深入的 IDE 集成,但 AgenticSeek 是优先考虑隐私并希望拥有真正属于自己代理的用户的首选。
FAQ
什么是 AgenticSeek? AgenticSeek 是由 Fosowl 构建的开源自主 AI 代理,完全在您的本地机器上运行。它可以浏览网页、编写与执行代码、规划复杂任务以及与文件交互——全部无需将数据发送给第三方服务。作为以隐私为优先的云端代理(如 Manus AI)本地替代方案,它已累积超过 25,000 个 GitHub 星标。
AgenticSeek 如何保护我的隐私? AgenticSeek 100% 在您的机器上本地运行。不会将数据发送到外部服务器。所有网页浏览、代码执行与文件操作都在您的本地环境中进行。代理可以选择性地通过 Ollama 使用本地开源模型,即使 LLM 推理也保持在本地。
AgenticSeek 支持哪些模型? AgenticSeek 支持 DeepSeek 模型(V3、R1)、OpenAI(GPT-4o、o3)、Anthropic(Claude 3.7 Sonnet、Claude 4),以及通过 Ollama 支持本地模型(Llama 4、Qwen 2.5、DeepSeek Coder)。代理会根据任务复杂度动态选择模型。
AgenticSeek 如何处理任务规划? AgenticSeek 使用结构化规划循环:(1) 将用户的请求分解为子任务,(2) 对子任务进行优先级排序与排序,(3) 使用适当工具执行每个子任务,(4) 验证结果并在必要时迭代,(5) 将输出汇总为最终响应。
AgenticSeek 的安装要求是什么? 通过 npm 安装:’npx agenticseek’。需要 Node.js 18+ 与至少 8GB RAM。对于本地模型推理,需要 Ollama 与至少 16GB RAM(70B+ 参数模型建议 32GB)。也提供 Docker 安装。支持 macOS、Linux 与 Windows(通过 WSL2)。
延伸阅读
- AgenticSeek GitHub 仓库 – 源代码、问题与社区贡献
- Manus AI 官方网站 – AgenticSeek 作为替代方案的云端代理
- Ollama 本地模型 – 运行本地 LLM,实现完全私密的 AgenticSeek 部署
- DeepSeek R1 论文 – 与 AgenticSeek 广泛用于规划的推理模型
無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分!