Zum Hauptinhalt springen
Link
Menu
Expand
(external link)
Document
Search
Copy
Copied
ONNX Runtime
ONNX Runtime installieren
Erste Schritte
Python
C++
C
C#
Java
JavaScript
Web
Node.js Binding
React Native
Objective-C
Julia und Ruby APIs
Windows
Mobile
Training auf dem Gerät
Training großer Modelle
Tutorials
API-Grundlagen
PyTorch beschleunigen
PyTorch Inferenz
Inferenz auf mehreren Zielen
PyTorch Training beschleunigen
TensorFlow beschleunigen
Hugging Face beschleunigen
Bereitstellung auf AzureML
Bereitstellung auf Mobilgeräten
Objekterkennung und Posenschätzung mit YOLOv8
Mobile Bilderkennung auf Android
Bildauflösung auf Mobilgeräten verbessern
Mobile Objekterkennung auf iOS
ORT Mobile Model Export Helfer
Web
Eine Webanwendung mit ONNX Runtime erstellen
Die 'env'-Flags und Sitzungsoptionen
WebGPU verwenden
WebNN verwenden
Arbeiten mit großen Modellen
Performance-Diagnose
ONNX Runtime Web bereitstellen
Fehlerbehebung
Bilder mit ONNX Runtime und Next.js klassifizieren
Benutzerdefinierte Excel-Funktionen für BERT-Aufgaben in JavaScript
Bereitstellung auf IoT und Edge
IoT-Bereitstellung auf Raspberry Pi
Traditionelles ML bereitstellen
Inferenz mit C#
Einfaches C#-Tutorial
BERT NLP Inferenz mit C#
CUDA für GPU mit C# konfigurieren
Bilderkennung mit ResNet50v2 in C#
Stable Diffusion mit C#
Objekterkennung in C# mit OpenVINO
Objekterkennung mit Faster RCNN in C#
Training auf dem Gerät
Erstellung einer Android-Anwendung
Erstellung einer iOS-Anwendung
API-Dokumentation
ONNX Runtime erstellen
Erstellung für Inferenz
Erstellung für Training
Erstellung mit verschiedenen EPs
Erstellung für Web
Erstellung für Android
Erstellung für iOS
Benutzerdefinierte Erstellung
API generieren (Vorschau)
Tutorials
Phi-3.5 Vision Tutorial
Phi-3 Tutorial
Phi-2 Tutorial
Ausführung mit LoRA-Adaptern
DeepSeek-R1-Distill Tutorial
Ausführung auf Snapdragon-Geräten
API-Dokumentation
Python API
C# API
C API
Java API
Anleitung
Installieren
Erstellung aus Quelle
Modelle erstellen
Modelle für Snapdragon erstellen
Fehlerbehebung
Migrieren
Referenz
Konfigurationsreferenz
Adapterdatei-Spezifikation
Execution Provider
NVIDIA - CUDA
NVIDIA - TensorRT
Intel - OpenVINO™
Intel - oneDNN
Windows - DirectML
Qualcomm - QNN
Android - NNAPI
Apple - CoreML
XNNPACK
AMD - ROCm
AMD - MIGraphX
AMD - Vitis AI
Cloud - Azure
Community-gepflegt
Arm - ACL
Arm - Arm NN
Apache - TVM
Rockchip - RKNPU
Huawei - CANN
Neuen Provider hinzufügen
EP-Konzeptdesign
NVIDIA - TensorRT RTX
Erweiterungen
Operatoren hinzufügen
Erstellen
Leistung
Performance abstimmen
Profiling-Tools
Protokollierung & Tracing
Speicherverbrauch
Thread-Verwaltung
E/A-Bindung
Fehlerbehebung
Modelloptimierungen
ONNX-Modelle quantisieren
Float16- und Mixed-Precision-Modelle
Graph-Optimierungen
ORT-Modellformat
ORT-Modellformat-Laufzeitoptimierung
Transformer-Optimierer
End-to-End-Optimierung mit Olive
Geräte-Tensoren
Ökosystem
Azure Container für PyTorch (ACPT)
Referenz
Releases
Kompatibilität
Operatoren
Operator-Kernels
Beigesteuerte Operatoren
Benutzerdefinierte Operatoren
Konfigurationsdatei für reduzierte Operatoren
Architektur
ONNX Runtime zitieren
Abhängigkeitsverwaltung in ONNX Runtime
ONNX Runtime Docs auf GitHub
ONNX Runtime
Installieren
Erste Schritte
Tutorials
API-Dokumentation
YouTube
GitHub
API generieren (Vorschau)
API-Dokumentation
Hinweis: Diese API befindet sich in der Vorschau und kann sich ändern.
Inhaltsverzeichnis
Python API
C# API
C API
Java API