AI

Bisheng:开源 LLM 应用开发平台

Bisheng 是一个开源 LLM 应用平台,用于构建企业 RAG 系统,具备文档管理、知识库和多模型支持。

Keeping this site alive takes effort — your support means everything.
無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分! 無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分!
Bisheng:开源 LLM 应用开发平台

企业组织一直是 LLM 技术最快的采用者之一,但它们面临独特的挑战:严格的安全要求、复杂的文档格式、合规义务以及对可审计性的需求。Bisheng 以一个专为企业 RAG 部署打造的开源平台来应对这些挑战。由 dataelement 创造,Bisheng 已成为需要构建生产级 LLM 应用而又不锁定于专有平台的组织的主要选择之一。

Bisheng 涵盖了 LLM 应用开发的完整生命周期:文档摄入和解析、知识库构建、工作流设计、模型管理、应用部署和持续监控。它同时为非技术用户提供可视化界面和为开发者提供编程 API,使其可在整个组织中访问。

该平台在中国企业市场特别成功,其中文语言处理支持、本地模型部署和国内云基础设施使其成为具有特定区域需求的组织的实用选择。它也因其全面的功能集和开源许可证而获得了国际采用。


Bisheng 的文档处理流水线如何工作?

文档处理流水线将原始文档转换为可搜索的知识库条目。

graph TD
    A[上传文档] --> B[格式检测]
    B --> C[PDF 解析器]
    B --> D[Office 解析器]
    B --> E[图片 OCR]
    B --> F[网页爬取器]
    C --> G[版面分析]
    D --> G
    E --> G
    F --> G
    G --> H[表格提取]
    G --> I[页眉/页脚处理]
    G --> J[页码过滤]
    H --> K[智能分块]
    I --> K
    J --> K
    K --> L[嵌入生成]
    L --> M[(向量存储)]
    M --> N[知识库准备就绪]

智能分块阶段尤其精密,它使用版面分析来保留文档结构,而非按字符数盲目分割。这产生了保持逻辑连贯性和段落边界的块。


Bisheng 提供哪些应用模板?

Bisheng 附带针对常见用例的预建应用模板。

应用类型模板组件典型用户
文档问答PDF 解析器、向量搜索、LLM 提示知识工作者、研究员
客服系统意图分类、常见问题匹配、升级支持团队
报告生成数据源、模板引擎、LLM 写手分析师、管理层
代码助手代码解析器、文档搜索、代码生成器工程团队
数据提取表格解析器、架构映射、结构化输出运营、合规
会议助理音频转录、摘要、待办事项团队、项目经理

每个模板提供一个起始配置,可通过可视化工作流构建器进行自定义。这大大缩短了从概念到可运行应用的时间。


Bisheng 支持哪些部署架构?

Bisheng 为不同的组织需求提供灵活的部署选项。

部署模式基础设施功能最佳适用
一体化单服务器所有功能捆绑小型团队、评估
分离服务多服务器可扩展组件中型组织
KubernetesK8s 集群自动扩展、高可用性大型企业
边缘部署本地硬件完全离线、气隙环境受监管行业
混合云本地与云端混合灵活的资源分配成长型组织

分离服务架构是最常见的生产部署方式,其中文档解析器、向量存储、LLM 推理和 Web 服务器等组件作为独立服务运行。这允许对最消耗资源的组件进行独立扩展。


常见问题

什么是 Bisheng? Bisheng 是一个开源的 LLM 应用开发平台,专注于企业 RAG(检索增强生成)系统。它提供完整的解决方案,包括文档管理、知识库创建、可视化工作流设计、多模型支持和部署基础设施。

Bisheng 为何适合企业使用? Bisheng 提供企业级功能,包括基于角色的访问控制、审计日志记录、高可用性部署、数据隔离、SSO 集成和全面的 API 支持。它专为满足企业环境中常见的安全性和合规性要求而设计。

可视化工作流构建器如何工作? 可视化工作流构建器提供拖放界面,用于构建 LLM 应用流水线。用户可以连接文档解析器、嵌入模型、向量数据库、提示模板和 LLM 推理节点等组件,无需编写代码。高级用户可以使用自定义 Python 节点扩展工作流。

支持哪些文档格式? Bisheng 支持 PDF、Word、Excel、PowerPoint、Markdown、HTML、纯文本、图片(含 OCR)和扫描文档。文档处理流水线包括格式特定的解析器、版面分析、表格提取和智能分块策略。

Bisheng 可以使用本地模型吗? 可以,Bisheng 支持 LLM 和嵌入模型的本地部署。它与 vLLM、TGI 和 Ollama 等模型服务框架集成。这使得对于具有严格数据驻留要求的环境可以完全离线运行。


延伸阅读

TAG
CATEGORIES