AI

LlamaFactory:开源 LLM 微调框架

LlamaFactory 是一个受欢迎的开源 LLM 高效微调框架,支持 LoRA、QLoRA、完整参数训练和数百种模型。

Keeping this site alive takes effort — your support means everything.
無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分! 無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分!
LlamaFactory:开源 LLM 微调框架

LlamaFactory 使在消费级硬件上微调数百种 LLM 架构变得实用。

graph LR
    A[基础模型\nHugging Face / 本地] --> B[量化\nBitsandbytes / GPTQ / AWQ]
    B --> C[适配器设置\nLoRA / QLoRA / DoRA / 完整]
    C --> D[训练配置\n数据 + 超参数]
    D --> E[训练循环\nSFT / RLHF / DPO / KTO]
    E --> F[训练优化\nFlash Attention, 梯度检查点]
    F --> G[输出\n合并模型 / 适配器权重]
    G --> H[导出\nHugging Face, GGUF, Ollama]
方法内存 (7B)内存 (70B)训练速度与完整 FT 的质量比较
完整 FT56 GB560 GB1 倍(参考)相同
LoRA (rank=16)16 GB160 GB快 1.2 倍~99%
QLoRA (4 位)8 GB48 GB慢 1.5 倍~97%
DoRA17 GB162 GB与 LoRA 相似~99.5%
训练算法目的所需数据
SFT指令遵循指令-响应对
DPO直接偏好优化偏好对
PPORLHF 对齐奖励模型 + 提示
KTO未配对偏好优化好/坏响应
标签页目的关键配置
模型选择基础模型和量化模型名称、精度、缓存目录
数据选择训练数据集数据集名称、格式化、分割比例
训练配置超参数学习率、批量大小、周期数
导出保存训练好的模型格式选择、量化级别

常见问题

什么是 LlamaFactory? 用于高效微调 LLM 的开源框架,支持 LoRA、QLoRA 等方法和数百种模型。

支持哪些微调方法? 完整 FT、LoRA、QLoRA、DoRA、GaLore 以及混合方法。

包含哪些训练功能? SFT、奖励建模、PPO、DPO、KTO、ORPO 等。

可以在有限 GPU 内存下使用吗? 可以,QLoRA 允许在 8GB GPU 上微调 7B 模型。

有哪些交互界面? Web UI、CLI 和 Python API。


延伸阅读

TAG
CATEGORIES