AI

DeerFlow:字节跳动的开源 LLM 工作流引擎

DeerFlow 由字节跳动开发,是一个用于构建和编排 LLM 应用程序的工作流引擎,具备可视化管道设计和多模型支持。

Keeping this site alive takes effort — your support means everything.
無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分! 無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分!
DeerFlow:字节跳动的开源 LLM 工作流引擎

构建生产级 LLM 应用程序远不止单一的 API 调用。现实世界的应用程序将多个 LLM 调用链接在一起,结合数据处理步骤,应用条件逻辑,优雅地处理错误,并在整个管道中管理状态。DeerFlow 由字节跳动开发,提供了一个全面的工作流引擎,用于构建这类复杂的 LLM 应用程序,并配备可视化管道设计器,使开发过程易于理解和透明。

DeerFlow 建立在一个观察之上:大多数 LLM 应用程序遵循可识别的模式——检索然后生成(RAG)、多步骤推理、LLM 作为评判者评估、以及基于代理的工具使用。DeerFlow 不是每次都从头实现这些模式,而是提供可重复使用的管道组件,可以以可视化和编程化方式连接在一起。

该平台反映了字节跳动在大规模 AI 部署方面的深厚经验——该公司运行着世界上最大的推荐系统和内容生成管道。DeerFlow 将这些生产工程专业知识带给了更广泛的开发者社区,提供了经过实战考验的可靠性、可扩展性和可观测性模式。


DeerFlow 的管道架构如何工作?

DeerFlow 的架构建立在一个有向无环图(DAG)执行模型之上,其中每个节点代表一个处理步骤,边线定义数据流。

graph LR
    A[输入] --> B[查询路由器]
    B --> C{任务类型}
    C -->|RAG| D[检索节点]
    C -->|生成| E[LLM 调用节点]
    C -->|分析| F[分析节点]
    D --> G[上下文构建器]
    G --> H[LLM 生成节点]
    E --> I[输出格式化器]
    F --> I
    H --> I
    I --> J[最终输出]
    I --> K[质量检查节点]
    K -->|通过| J
    K -->|失败| H

管道可以包括分支(多个节点的并行执行)、循环(迭代优化)、条件路由(基于中间结果的不同路径)和子管道(在管道内组合管道)。


DeerFlow 提供哪些管道组件?

DeerFlow 内置一个丰富的预建节点库,涵盖 LLM 应用程序模式的完整范围。

节点类型用途配置选项
LLM 调用进行 LLM API 调用模型、提示词、温度、最大 token 数
文本分割器将文本分割成块块大小、重叠、策略
嵌入生成文本嵌入模型、批处理大小
向量搜索在向量数据库中进行语义搜索集合、top-k、相似度指标
HTTP 请求调用外部 APIURL、方法、标头、正文
代码执行器执行自定义代码语言、代码、超时
条件根据条件分支条件表达式、分支
聚合器合并多个输入合并策略、格式
输出验证器验证 LLM 输出验证规则、重试逻辑
内存存储和检索状态存储后端、TTL

节点可以使用自定义 Python 代码扩展,使得该平台适用于需要领域特定逻辑搭配 LLM 编排的工作流。


DeerFlow 如何处理多模型编排?

DeerFlow 的优势之一是能够在单个管道内编排多个模型,为每个子任务选择正确的模型。

编排模式描述优点
模型路由将子任务路由到最佳模型成本节省、质量优化
级联先尝试便宜的模型,再升级延迟/成本优化
集成查询多个模型,汇总结果稳健性、准确性
评判-评估一个模型评估另一个模型质量控制
推测性快速模型草稿,慢速模型优化延迟改善
跨模型 RAG用一个模型嵌入,用另一个模型生成专门化优化

一个典型的成本优化管道可能使用一个小型、快速的模型进行初始处理,将复杂推理路由到更大的模型,并使用评估模型在返回结果前验证质量。


DeerFlow 包含哪些生产功能?

DeerFlow 从底层设计为生产部署,其功能解决大规模运行 LLM 应用程序的常见挑战。

功能实现使用场景
请求队列基于优先级的消息队列处理流量高峰
速率限制按用户、模型、管道成本控制
语义缓存基于嵌入的缓存查找延迟降低
重试逻辑具有抖动的指数退避处理临时故障
备用模型自动模型故障转移高可用性
追踪OpenTelemetry 集成调试和优化
版本控制管道版本管理安全部署
A/B 测试按百分比进行管道路由逐步推出

监控仪表板提供管道性能的实时可见性,包括延迟分布、错误率、token 使用量和每次管道执行成本。


FAQ

什么是 DeerFlow? DeerFlow 是字节跳动的开源工作流引擎,用于构建和编排 LLM 应用程序。它提供可视化管道设计界面、多模型支持和生产级编排能力。

DeerFlow 的可视化管道设计器如何工作? 可视化设计器使用拖放节点编辑器,您可以将 LLM 调用、数据转换、条件逻辑和外部 API 调用连接成可执行的管道。每个节点可以配置提示词、模型和参数。

DeerFlow 支持哪些 LLM? DeerFlow 支持多个 LLM 提供者,包括字节跳动自家的模型、OpenAI、Anthropic、Google Gemini,以及通过 Ollama 和 vLLM 集成的开源模型。

DeerFlow 能处理生产工作负载吗? 是的,DeerFlow 包含生产功能,如请求队列、速率限制、缓存、带重试的错误处理、日志记录和监控。它可以部署为可扩展的服务。

DeerFlow 与其他 LLM 编排工具相比如何? DeerFlow 以其可视化管道设计器、字节跳动模型生态系统集成以及针对高吞吐量、低延迟生产部署场景的优化而与众不同。


延伸阅读

TAG
CATEGORIES