AI

Hugging Face Transformers:预训练模型的通用库

Hugging Face Transformers 是使用最广泛的预训练模型库,支持横跨 NLP、计算机视觉、音频和多模态领域的 50 万个以上模型。

Keeping this site alive takes effort — your support means everything.
無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分! 無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分!
Hugging Face Transformers:预训练模型的通用库

Hugging Face Transformers 是让整个 AI 生态系统对每个开发者都可访问的库。

graph LR
    subgraph 抽象层
        A1[pipeline()\n高阶 API] --> A2[AutoModel\n自动模型选择]
        A2 --> A3[特定模型\nBERT, GPT, ViT, Whisper 等]
        A1 --> A4[AutoTokenizer\n自动分词器选择]
        A4 --> A5[分词器\n子词 / BPE / SentencePiece]
    end
    subgraph 后端
        A3 --> B1[PyTorch / TF / JAX]
        A5 --> B1
        B1 --> B2[CPU / GPU / TPU]
    end
    subgraph Hub
        C1[Hugging Face Hub\n50 万+ 模型] --> A1
        C1 --> A2
        C1 --> A4
    end
领域任务示例模型
NLP文本分类、NER、QA、摘要、翻译、生成BERT、GPT、Llama、T5、BART
计算机视觉图像分类、检测、分割、深度估计ViT、DETR、MaskFormer
音频语音识别、TTS、音频分类Whisper、Bark、Wav2Vec2
多模态图像字幕、视觉 QA、文档理解BLIP、LLaVA、LayoutLM
组件目的关键类
Pipeline高阶任务 APIpipeline()
AutoModel自动模型加载AutoModel
模型特定架构BertModelLlamaForCausalLM
分词器文本预处理AutoTokenizer
Trainer训练循环TrainerSeq2SeqTrainer
目的
Datasets数据加载和预处理
TokenizersRust 中的快速分词
Accelerate分布式训练配置
PEFT参数高效微调
TRLRLHF 和偏好训练

常见问题

什么是 Hugging Face Transformers? 使用最广泛的开源库,用于处理预训练深度学习模型。

可以获取多少模型? Hugging Face Hub 上有超过 50 万个预训练模型。

支持哪些框架? PyTorch、TensorFlow 和 JAX,具有无缝互操作性。

如何进行推理? 使用 pipeline() 函数,只需三行代码。

可以用于训练吗? 是的,包含 Trainer 类,支持分布式训练和混合精度。


延伸阅读

TAG
CATEGORIES