ONNX Runtime generate() API installieren
Python-Paketinstallation
Hinweis: Nur eines dieser Paketsets (CPU, DirectML, CUDA) sollte in Ihrer Umgebung installiert werden.
CPU
pip install onnxruntime-genai
DirectML
pip install onnxruntime-genai-directml
CUDA
Wenn Sie die CUDA-Variante von onnxruntime-genai installieren, muss das CUDA Toolkit installiert sein.
Das CUDA Toolkit kann vom CUDA Toolkit-Archiv heruntergeladen werden.
Stellen Sie sicher, dass die Umgebungsvariable CUDA_PATH auf den Speicherort Ihrer CUDA-Installation gesetzt ist.
CUDA 12
pip install onnxruntime-genai-cuda
CUDA 11
Um diese API mit CUDA 11 zu verwenden, müssen Sie aus dem Quellcode erstellen und installieren.
Nuget-Paketinstallation
Hinweis: Installieren Sie nur eines dieser Pakete (CPU, DirectML, CUDA) in Ihrem Projekt.
Voraussetzungen
ONNX Runtime Abhängigkeit
ONNX Runtime generate() Versionen 0.3.0 und früher wurden mit den Kern-ONNX Runtime Binärdateien gebündelt. Ab Version 0.4.0 sind die Pakete getrennt, um eine flexiblere Entwicklererfahrung zu ermöglichen.
CPU
dotnet add package Microsoft.ML.OnnxRuntimeGenAI
CUDA
Hinweis: Nur CUDA 11 wird für Versionen 0.3.0 und früher unterstützt, und nur CUDA 12 wird für Versionen 0.4.0 und später unterstützt.
dotnet add package Microsoft.ML.OnnxRuntimeGenAI.Cuda
DirectML
dotnet add package Microsoft.ML.OnnxRuntimeGenAI.DirectML