AI

BELLE:链家科技开源中文大型语言模型

BELLE 是一个开源中文 LLM 项目,基于 BLOOM 和 LLaMA 微调,拥有 200 万条指令样本,推动中文对话式 AI 发展。

Keeping this site alive takes effort — your support means everything.
無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分! 無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分!
BELLE:链家科技开源中文大型语言模型

BELLE(Be Everyone’s Large Language model Engine)是链家科技为了缩小中文与英文大语言模型差距而创建的开源项目。

仓库github.com/LianjiaTech/BELLE


与其他中文 LLM 比较

差异点BELLE其他中文 LLM
基础模型BLOOM + LLaMA 变体主要为 LLaMA 或 ChatGLM
训练数据Alpaca 风格,翻译并策划差异很大
研究重点指令遵循评估通常侧重于预训练
透明度完整发布模型和数据通常仅部分发布

模型架构

模型变体基础架构参数训练数据大小
BELLE-7BBLOOMZ-7B1-MT7B200 万指令
BELLE-LLaMA-7BLLaMA-7B7B200 万指令
BELLE-LLaMA-13BLLaMA-13B13B200 万指令
BELLE-7B-0.5MBLOOMZ-7B1-MT7B50 万指令

基准测试

评估任务BELLE-7B (2M)BELLE-LLaMA-7B (2M)基线 (基础模型)
中文翻译 (BLEU)28.427.122.3
文本摘要 (ROUGE-L)32.731.526.8
中文问答 (F1)64.262.856.1
安全与偏见通过通过通过

部署

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "BelleGroup/BELLE-7B-2M"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

inputs = tokenizer("什么是深度学习?", return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)
print(tokenizer.decode(outputs[0]))

常见问题

什么是 BELLE? 链家科技的开源中文 LLM 项目,基于 BLOOM 和 LLaMA 架构,使用 200 万中文指令样本进行指令微调。

模型变体? 基于 BLOOMZ-7B1-MT、LLaMA-7B 和 LLaMA-13B。

数据集大小? 最大数据集含 200 万中文指令-响应对。

限制? 可能产生听起来合理但不正确的信息。

许可证? 仅用于研究目的。

扩展阅读

TAG
CATEGORIES