AI

MNN:阿里巴巴超高速轻量级推理引擎,专为移动与边缘 AI 打造

MNN 是阿里巴巴的开源深度学习推理引擎,为 30 多个应用提供设备端 LLM、扩散模型和计算机视觉能力。

Keeping this site alive takes effort — your support means everything.
無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分! 無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分!
MNN:阿里巴巴超高速轻量级推理引擎,专为移动与边缘 AI 打造

在移动和边缘设备上运行深度学习模型面临独特挑战:有限的计算能力、受限的内存、电池敏感度以及多样的硬件架构。MNN(Mobile Neural Network)是阿里巴巴对这些挑战的回应,这是一款轻量级推理引擎,以最小的开销和最大的性能将 AI 带到边缘。

MNN 为超过 30 个阿里巴巴应用提供支持,包括淘宝(电子商务)、优酷(视频流)和各种企业工具。它已在十亿用户规模下经过实战考验,处理从实时计算机视觉到设备端大型语言模型的各种任务。该引擎的二进制大小很小(核心运行时不到 500 KB),运行时内存占用极少,使其甚至适用于低端设备。

该项目自 2018 年开源发布以来有了显著增长,现在支持新兴的模型架构,包括变换器、扩散模型和基于 Mamba 的架构。其可扩展的算子库涵盖超过 150 种运算,每种都针对多种后端进行了优化。


MNN 与其他移动推理引擎相比如何?

移动推理领域包含多个竞争引擎,各有不同的优势和取舍。

功能MNN(阿里巴巴)TensorFlow LiteONNX RuntimeCoreMLNCNN(腾讯)
二进制大小约 500 KB约 1.5 MB约 3 MB系统内置约 1 MB
平台Android、iOS、Linux、Windows、macOSAndroid、iOS、Linux、MCUAndroid、iOS、Linux、Windows仅 iOSAndroid、iOS、Linux
ARM 优化优秀良好良好原生优秀
量化INT8、FP16、混合INT8、FP16INT8、FP16、INT4FP16INT8、FP16
GPU 加速OpenCL、Vulkan、MetalOpenCL、MetalDirectML、Metal、VulkanMetalVulkan
LLM 支持有(已优化)有限有(ANE)有限
RISC-V 支持实验性

MNN 结合了小体积、广泛的平台支持和积极的硬件特定优化,使其在资源受限的 Android 和嵌入式 Linux 部署中特别强大。

graph LR
    A[模型格式] --> B[MNNConvert]
    B --> C[MNN 模型]
    C --> D[MNN 运行时]
    D --> E[CPU 后端]
    D --> F[GPU 后端]
    D --> G[NPU/DSP 后端]
    E --> H[ARM NEON]
    E --> I[x86 AVX]
    F --> J[OpenCL / Vulkan / Metal]
    G --> K[Qualcomm / MediaTek / Apple]

MNN 实现了哪些设备端 AI 能力?

MNN 广泛的算子覆盖范围和优化的内核使其适用于资源受限设备上的各种 AI 任务。

AI 能力典型模型使用案例
大型语言模型LLaMA、Qwen、ChatGLM设备端聊天、文本补全
扩散模型Stable Diffusion 变体图像生成、编辑
计算机视觉ResNet、YOLO、MobileNet物体检测、分类
自然语言处理BERT、RoBERTa、ALBERT情感分析、NER
语音识别Whisper、Paraformer语音命令、转录
多模态CLIP、BLIP-2图像搜索、字幕生成

MNN 达到了哪些性能基准?

MNN 在基准比较中持续优于竞争对手的移动推理引擎,特别是在基于 ARM 的移动处理器上。

基准模型MNNTFLiteNCNN设备
图像分类MobileNetV22.1 毫秒3.0 毫秒2.5 毫秒Snapdragon 8 Gen 3
物体检测YOLOv5s8.5 毫秒12.0 毫秒9.2 毫秒Snapdragon 8 Gen 3
NLP 推理BERT Base45 毫秒65 毫秒52 毫秒Snapdragon 8 Gen 3
LLM(4-bit)Qwen-1.8B18 tok/sN/AN/ASnapdragon 8 Gen 3
图像分类MobileNetV21.8 毫秒2.5 毫秒2.0 毫秒Apple A17 Pro

常见问题

什么是 MNN? MNN 是阿里巴巴的开源超高速深度学习推理引擎,专为移动设备、嵌入式系统和边缘计算而优化。

支持哪些平台? Android、iOS、Windows、Linux(含 RISC-V)和 macOS。

支持哪些模型格式? ONNX、TensorFlow、PyTorch、Caffe 和 MNN 格式。

包含哪些工具? MNNConvert、MNNCompile、MNNTest、MNNV2Basic 和 MNNExpress。

学术背景? 2018 年开源,论文发表在 ASPLOS 和 ACM Multimedia。


延伸阅读

TAG
CATEGORIES