Arm NN Execution Provider

Inhalt

Beschleunigen Sie die Leistung von ONNX-Modellarbeiten auf Arm®-basierten Geräten mit dem Arm NN Execution Provider. Arm NN ist eine Open-Source-Inferenz-Engine, die von den Unternehmen Arm und Linaro gepflegt wird.

Build

Für Build-Anweisungen siehe die BUILD-Seite.

Verwendung

C/C++

Um Arm NN als Execution Provider für die Inferenzierung zu verwenden, registrieren Sie ihn wie unten gezeigt.

Ort::Env env = Ort::Env{ORT_LOGGING_LEVEL_ERROR, "Default"};
Ort::SessionOptions so;
bool enable_cpu_mem_arena = true;
Ort::ThrowOnError(OrtSessionOptionsAppendExecutionProvider_ArmNN(so, enable_cpu_mem_arena));

Die Details der C-API finden Sie hier.

Performance-Tuning

Wenn Sie onnxruntime_perf_test verwenden (falls zutreffend), verwenden Sie das Flag -e armnn