深度学习推理框架汇总
-
TensorFlow Serving:TensorFlow Serving 是 TensorFlow 的官方模型服务框架,专门用于部署 TensorFlow 模型。它提供了高性能、可扩展、灵活的模型部署和推理服务。
-
TorchServe:TorchServe 是 PyTorch 官方推出的模型服务框架,用于部署 PyTorch 模型。它支持灵活的模型部署、动态扩缩容、模型版本控制等功能。
-
ONNX Runtime:ONNX Runtime 是一个高性能的推理引擎,专门用于执行 ONNX 格式的模型。它支持跨平台部署,包括 CPU、GPU、移动设备等,并提供了 C++、Python 和 Java 等多种语言的 API。
-
TensorRT:TensorRT 是 NVIDIA 推出的高性能推理引擎,专门针对 NVIDIA GPU 进行了优化。它支持对 TensorFlow、PyTorch、ONNX 等模型进行优化和部署。
-
OpenVINO (Open Visual Inference & Neural Network Optimization):OpenVINO 是英特尔推出的深度学习推理工具包,支持针对英特尔 CPU、GPU、VPU(Vision Processing Unit)等硬件进行优化的推理。
-
TensorRTX:TensorRTX 是英伟达推出的一款基于 TensorRT 的深度学习推理框架,提供了更多的优化和扩展功能,适用于高性能和低延迟的推理需求。
-
NCNN (NVIDIA CUDA Convolutional Neural Networks):NCNN 是一个高效的深度学习推理框架,专门针对移动端和嵌入式设备进行了优化,支持多种硬件平台。
-
MNN (Mobile Neural Network):MNN 是阿里巴巴推出的移动端深度学习推理引擎,支持多种模型格式,并且适用于 Android、iOS 等移动设备。