檢索增強生成(RAG)已成為將 LLM 回應建立在真實知識基礎上的標準架構。由網易有道開發的 QAnything 是一個生產就緒的 RAG 引擎,處理從文件攝取到答案生成的完整管線,特別注重從本地文件集合中進行準確檢索。
QAnything 的與眾不同之處在於其對檢索精確度的關注。系統使用結合密集和稀疏方法的兩階段檢索管線,然後進行重新排序,以確保 LLM 只收到最相關的上下文。這大幅減少了幻覺,同時保持高召回率。
系統能力
| 功能 | 描述 | 優勢 |
|---|---|---|
| 多格式文件支援 | PDF、Word、Excel、PPT、圖片 | 無需預先處理 |
| 兩階段檢索 | 密集 + 稀疏 + 重新排序 | 高精確度和召回率 |
| 多模態理解 | 文件中的文字、表格、圖像 | 完整理解 |
| 本地部署 | 完全在內部部署 | 資料隱私有保障 |
| 自訂知識庫 | 多個隔離的集合 | 便於組織管理 |
RAG 管線架構
flowchart LR
A[文件] --> B[文件解析器]
B --> C[分塊與嵌入]
C --> D[向量資料庫]
E[使用者查詢] --> F[查詢嵌入]
D --> G[密集檢索]
F --> G
D --> H[稀疏檢索]
F --> H
G --> I[融合與重新排序]
H --> I
I --> J[LLM 上下文組裝]
J --> K[答案生成]管線透過解析和分塊攝取文件,然後將嵌入儲存在向量資料庫中。查詢時,密集和稀疏檢索都會找到相關區塊,融合結合結果,重新排序優先選擇最佳匹配,然後 LLM 根據組裝的上下文生成答案。
效能指標
| 指標 | QAnything | 基準 RAG | 改善 |
|---|---|---|---|
| Recall@5 | 93.2% | 82.1% | +11.1% |
| Precision@5 | 89.7% | 76.4% | +13.3% |
| 答案準確度 | 91.5% | 78.2% | +13.3% |
| 延遲(平均) | 1.8 秒 | 2.1 秒 | -14.3% |
如需更多資訊,請造訪 QAnything GitHub 儲存庫 和 QAnything 文件網站。
常見問題
Q:QAnything 支援哪些向量資料庫? A:它開箱即用支援 Milvus、FAISS、Elasticsearch 和 Qdrant。
Q:QAnything 能處理掃描的 PDF 嗎? A:可以,它整合了 OCR 用於掃描文件和基於圖像的內容。
Q:QAnything 可以使用哪些 LLM? A:它支援 OpenAI、Anthropic,以及透過 Ollama 和 vLLM 使用本地模型。
Q:QAnything 適合企業部署嗎? A:是的,它支援 Docker 部署、水平擴展和多租戶隔離。
Q:QAnything 如何處理表格提取? A:它使用專門的表格解析模型來保留檢索上下文中的表格結構。
無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分!