作者:Jack OmniXRI, 2026/02/06
參考資料來源:
https://gitlab.arm.com/artificial-intelligence/ethos-u/ethos-u-vela/-/blob/main/SUPPORTED_OPS.md
Arm 為了讓 Cortex-M55/M85/M82 單晶片(MCU)更適用於 AI 推論應用,通常會搭配微型神經網路處理器(MicroNPU) Ethos-U55/U65/U85 進行硬體加速。為了讓 PyTorch / TensorFlow 等框架訓練出來模型能更順利在這種組合的晶片上運行,通常會先將模型轉換成 TensorFlow Lite (*.tflite)格式,最後再經過 Arm Vela Compiler 轉換成適合 MCU 及 NPU 的 TFLite 格式( *_vela.tflite)。
轉換過程中若 TFLite 運算子(Operators, Ops)可滿足 NPU 硬體特性,則 Vela Compiler 會將其送至 NPU 執行,其它無法處理的運算子就交給 MCU 處理。Cortex-M55/M85/M82 使用 M-Profile Vector Extension (MVE 或稱 Helium) 指令集,可處理向量計算,搭配 Arm CMSIS-NN 函式庫可大幅優化及加速計算。
為了讓大家更清楚不同的 MicroNPU 可以支援哪些 TFLite(現稱 LiteRT) 運算子,可參考下表。更多的使用方式及限制可參考原文。
