Tags

LLM Inference

ExLlamaV3:高性能 LLM 推理引擎
AI

ExLlamaV3:高性能 LLM 推理引擎

在消费级硬件上运行大型语言模型需要高效的推理引擎,从可用的 GPU 内存中榨取每一滴性能。由 turboderp 团队开发的 ExLlamaV3 是可用的最快推理引擎之一,特别是使用 EXL3 量化格式时。 ExLlamaV3 通过优化 CUDA 内核、高效内存管理和量化感知计算的组合来实 …

KTransformers:具有先进内核优化的灵活 LLM 推理
AI

KTransformers:具有先进内核优化的灵活 LLM 推理

LLM 推理的效率直接决定了 AI 应用程序的成本、延迟和可扩展性。KTransformers(GitHub 上的 kvcache-ai/ktransformers)是一个灵活的推理框架,通过内核级优化推动了可实现性能的边界,从而在生产环境中实现更快、更具成本效益的大型语言模型部署。

TensorRT-LLM:NVIDIA 的开源优化 LLM 推理库
AI

TensorRT-LLM:NVIDIA 的开源优化 LLM 推理库

将大型语言模型部署到生产环境中,不仅仅是把权重加载到 GPU 上那么简单。要达到可接受的吞吐量和延迟,您需要内核融合、注意力机制优化、内存管理和量化——所有这些都要针对您的特定硬件进行调整。NVIDIA 的 TensorRT-LLM 在一个开源库中提供了所有这些功能,从 NVIDIA …

TAG
CATEGORIES