PyTorch + ONNX Runtime



PyTorch führt die Deep-Learning-Landschaft mit seiner leicht verständlichen und flexiblen API an; die große Anzahl verfügbarer fertiger Modelle, insbesondere im Bereich Natural Language Processing (NLP); sowie seine domänenspezifischen Bibliotheken.


Überall bereitstellen

Führen Sie PyTorch-Modelle in der Cloud, auf Desktops, Mobilgeräten, IoT und sogar im Browser aus

Leistung steigern

Beschleunigen Sie PyTorch-Modelle, um die Benutzererfahrung zu verbessern und Kosten zu senken

Verbessern Sie die Time-to-Market

Genutzt von Microsoft und vielen anderen für ihre Produktions-PyTorch-Workloads

Warum PyTorch + ONNX Runtime?

Native Unterstützung in PyTorch

PyTorch unterstützt ONNX über die torch.onnx APIs, um den Export Ihres PyTorch-Modells in das portable ONNX-Format zu vereinfachen. Das ONNX Runtime-Team pflegt diese Export-APIs, um eine hohe Kompatibilität mit PyTorch-Modellen zu gewährleisten.

					 
import torch

torch.onnx.export(
model,
inputs,
"model.onnx")

Produktionsbereit

Trainieren und stellen Sie Modelle zuverlässig und im großen Maßstab bereit, indem Sie eine integrierte PyTorch-Umgebung innerhalb von Azure Machine Learning verwenden, um sicherzustellen, dass die neueste PyTorch-Version durch eine leichte, eigenständige Umgebung vollständig unterstützt wird, die benötigte Komponenten wie ONNX Runtime für Training enthält, um optimiertes Training für große Modelle effektiv auszuführen.

Geringere Latenz, höherer Durchsatz

Bessere Leistung kann dazu beitragen, die Benutzererfahrung zu verbessern und Ihre Betriebskosten zu senken. Eine breite Palette von Modellen, von Computer Vision (ResNet, MobileNet, Inception, YOLO, Super Resolution usw.) bis hin zu Speech und NLP (BERT, RoBERTa, GPT-2, T5 usw.), kann von der optimierten Leistung von ONNX Runtime profitieren. Das ONNX Runtime-Team benchmarkt und optimiert regelmäßig Top-Modelle auf Leistung. ONNX Runtime integriert sich auch in führende Hardware-Beschleuniger-Bibliotheken wie TensorRT und OpenVINO, sodass Sie die beste Leistung auf der verfügbaren Hardware erzielen können, während Sie dieselben gemeinsamen APIs auf allen Ihren Zielplattformen verwenden.

Innovationen schneller in die Produktion bringen

Entwicklungsagilität ist ein Schlüsselfaktor für die Gesamtkosten. ONNX Runtime wurde auf der Erfahrung aufgebaut, PyTorch-Modelle in hochskalierten Diensten wie Microsoft Office, Bing und Azure in die Produktion zu bringen. Früher dauerte es Wochen und Monate, um ein Modell von der Forschung und Entwicklung in die Produktion zu bringen. Mit ONNX Runtime können Modelle in Stunden oder Tagen für die Bereitstellung im großen Maßstab bereit sein.