Blogs & Ankündigungen

Hochleistungs-Deep-Learning in Oracle Cloud mit ONNX Runtime

Die Ermöglichung von Szenarien durch die Nutzung von Deep Neural Network (DNN)-Modellen ist entscheidend für unsere KI-Strategie bei Oracle, und unser Cloud AI Services-Team hat eine Lösung entwickelt, um DNN-Modelle für Kunden im Gesundheitswesen bereitzustellen. In diesem Blogbeitrag werden wir die Herausforderungen unseres Teams und wie ONNX Runtime diese als Rückgrat für erfolgreiche Hochleistungs-Inferenz löst, teilen.

15. März 2023

Video-Super-Resolution in Microsoft Edge

VSR in Microsoft Edge baut auf ONNX Runtime und DirectML auf, was unsere Lösung über GPU-Anbieter hinweg portierbar macht und VSR mehr Benutzern zugänglich macht. Zusätzliche Grafikkarten, die diese Technologien unterstützen und über ausreichende Rechenleistung verfügen, werden zukünftig unterstützt. Die Teams von ONNX Runtime und DirectML haben ihre Technologie über viele Jahre feinabgestimmt, was dazu führt, dass VSR die Leistung und Fähigkeiten der Verarbeitungskraft Ihrer Grafikkarte optimal nutzt.

8. März 2023

OctoML senkt die Produktionskosten für KI-Inferenz bei Microsoft durch neue Integration mit dem ONNX Runtime-Ökosystem

Im vergangenen Jahr arbeiteten OctoML-Ingenieure eng mit Watch For zusammen, um den TVM Execution Provider (EP) für ONNX Runtime zu entwerfen und zu implementieren – und brachten so das Modelloptimierungspotenzial von Apache TVM allen ONNX Runtime-Benutzern zugänglich. Dies baut auf der Zusammenarbeit auf, die wir 2021 begonnen haben, um die Vorteile von TVM's Codeerzeugung und flexibler Quantisierungsunterstützung für die Produktionsskala bei Microsoft zu nutzen.

2. März 2023

Optimum + ONNX Runtime: Einfacheres, schnelleres Training für Ihre Hugging Face-Modelle

Die Optimum-Bibliothek von Hugging Face bietet durch ihre Integration mit ONNX Runtime für das Training eine offene Lösung zur Verbesserung der Trainingszeiten um 35 % oder mehr für viele beliebte Hugging Face-Modelle. Wir präsentieren Details sowohl zu Hugging Face Optimum als auch zum ONNX Runtime Training-Ökosystem mit Leistungszahlen, die die Vorteile der Verwendung der Optimum-Bibliothek hervorheben.

24. Januar 2023

Optimierung und Bereitstellung von Transformer INT8-Inferenz mit ONNX Runtime-TensorRT auf NVIDIA GPUs

Transformer-basierte Modelle haben den Bereich der natürlichen Sprachverarbeitung (NLP) revolutioniert. Seit seiner Einführung wurde die Transformer-Architektur in Modelle wie Bidirectional Encoder Representations from Transformers (BERT) und Generative Pre-trained Transformer (GPT) integriert, um Aufgaben wie Textgenerierung, Zusammenfassung und Fragenbeantwortung durchzuführen, um nur einige zu nennen...

2. Mai 2022

Skalierung der PyTorch-Inferenz: Milliarden täglicher NLP-Inferenz mit ONNX Runtime

Skalierung, Leistung und effiziente Bereitstellung von hochmodernen Deep-Learning-Modellen sind allgegenwärtige Herausforderungen, da angewandte maschinelle Lernen in der Industrie wächst. Wir freuen uns, dass die von uns entwickelte und in Microsoft-Produkten und -Diensten mit hohem Volumen verwendete ONNX Runtime Machine Learning-Modellinferenzlösung auch bei unserer Open-Source-Community Anklang findet und neue Fähigkeiten ermöglicht, die die Relevanz von Inhalten und die Produktivität steigern...

19. April 2022

Beschleunigen Sie das PyTorch-Training mit torch-ort

Mit einer einfachen Änderung an Ihrem PyTorch-Trainingsskript können Sie nun das Training großer Sprachmodelle mit torch_ort beschleunigen. ORTModule, das auf der von Ihnen gewählten Hardware läuft. Das Training von Deep-Learning-Modellen erfordert immer steigende Rechen- und Speicherressourcen. Heute veröffentlichen wir torch_ort.ORTModule, um das verteilte Training von PyTorch-Modellen zu beschleunigen und die Zeit und Ressourcen für das Training zu reduzieren...

13. Juli 2021

ONNX Runtime Version 1.8.1 bietet Vorschau auf Unterstützung für beschleunigtes Training auf AMD GPUs mit der AMD ROCm™ Open Software Platform

ONNX Runtime ist ein Open-Source-Projekt zur Beschleunigung von Machine Learning auf einer Vielzahl von Frameworks, Betriebssystemen und Hardwareplattformen. Heute freuen wir uns, eine Vorschauversion von ONNX Runtime in Version 1.8.1 ankündigen zu können, die Unterstützung für AMD Instinct™ GPUs über die AMD ROCm™ Open-Source-Plattform bietet...

13. Juli 2021