2026年2月7日 星期六

Arm Ethos-U-Vela 可支援的 TFLite 運算子

作者:Jack OmniXRI, 2026/02/06

Workflow Cortex-M and Ethos-U

參考資料來源:
https://gitlab.arm.com/artificial-intelligence/ethos-u/ethos-u-vela/-/blob/main/SUPPORTED_OPS.md

Arm 為了讓 Cortex-M55/M85/M82 單晶片(MCU)更適用於 AI 推論應用,通常會搭配微型神經網路處理器(MicroNPU) Ethos-U55/U65/U85 進行硬體加速。為了讓 PyTorch / TensorFlow 等框架訓練出來模型能更順利在這種組合的晶片上運行,通常會先將模型轉換成 TensorFlow Lite (*.tflite)格式,最後再經過 Arm Vela Compiler 轉換成適合 MCU 及 NPU 的 TFLite 格式( *_vela.tflite)。

轉換過程中若 TFLite 運算子(Operators, Ops)可滿足 NPU 硬體特性,則 Vela Compiler 會將其送至 NPU 執行,其它無法處理的運算子就交給 MCU 處理。Cortex-M55/M85/M82 使用 M-Profile Vector Extension (MVE 或稱 Helium) 指令集,可處理向量計算,搭配 Arm CMSIS-NN 函式庫可大幅優化及加速計算。

為了讓大家更清楚不同的 MicroNPU 可以支援哪些 TFLite(現稱 LiteRT) 運算子,可參考下表。更多的使用方式及限制可參考原文

【頂置】簡報、源碼、系列文快速連結區

常有人反應用手機瀏覽本部落格時常要捲很多頁才能找到系列發文、開源專案、課程及活動簡報,為了方便大家快速查詢,特整理連結如下,敬請參考! Edge AI Taiwan 邊緣智能交流區 全像顯示與互動交流區 南開科大(NKUT)智慧物聯網資料收集站(2026) Om...