網頁

2024年10月31日 星期四

大語言模型真的搞得懂人類的數學問題嗎?

 作者: Jack OmniXRI 2024/10/31

Dr345

今天剛好看了一個有趣的新聞[1]提到「面試官問 3, 4, 5 組成最大數字是多少? 博士神回答妙錄取」,結果答案是「5的43次方 543=1.1361030」,當然這是不用計算機的情況下最快的反應出的最佳答案,但如果仔細給計算機精算後會發覺最大數字應該是「3的(4的5次方)次方, 3(45),即3的1024次方 31024=3.73410488」才對,因為多了一個小括號就瞬間讓次方數達到最高。當然如果限制不能增加符號的話,那麼「4的53次方, 453=8.1121031」 才是最大值而不是「5的43次方」,所以這位面試官也不合格-

以下我們就拿這個題目來問幾個LLM,包括Google Gemini, OpenAI ChatGPT, Claude, Perplexity, Microsoft Copilot,看看誰能答的比較好。依序分三次問下列問題。

  1. 3,4,,5組成的最大數字是多少?
  2. 如果這是腦筋急轉彎的問題,有更好的解法嗎?
  3. 「3、4、5組成的最大數字」的答案好像不對,可以重新列出思考步驟,再給出正確答案嗎?

2024年10月28日 星期一

【vMaker Edge AI專欄 #22】使用Intel OpenVINO搭配YOLOv11輕鬆駕馭姿態偵測

 作者:Jack OmniXRI, 2024/10/15

留言

vMaker_EdgeAI_22_00

相信有在玩AI影像「物件偵測」的朋友對於YOLO(Yolo Only Look Once)一定不會陌生。從2015年第一版(v1)問世至今,在各路大神的努力之下,現在已發展到第十一版(v11),而其中 v4, v7, v9 正是中研院資訊所廖弘源所長及高徒王建堯博士所貢獻的。

目前最新的 YOLOv11 [1] [2] 就是由 Ultralytic 這家公司所提出的,它是基於該公司先前提出的 v8 版本進行改良而得的,並發表於今(2024)年9月底 YOLO Vision 2024 [3] 活動中。此次這個版本延續之前 v8 版本,一樣提供了「影像分類」、「物件偵測」(含正矩形和斜矩形外框)、影像分割、物件追蹤及姿態估測(人體骨架偵測)等模型,並支援多種推論框架,包括 Google TensorFlow, PyTorch, ONNX, Apple CoreML 及 Intel OpenVINO。

Intel OpenVINO 為了讓大家更快上手,馬上就在開源範例庫 Notebooks [4] 上給出 YOLOv11 物件偵測、姿態估測及影像分割等三個案例,還可支援 Google Colab ,讓大家不用在桌機、筆電上安裝 OpenVINO 也可體驗一把。

接下來我們就跟著源碼說明[5]來了解一下如何運行 【姿態估測】 範例「Convert and Optimize YOLOv11 keypoint detection model with OpenVINO™」及動作原理。完整源碼請參考[6],點擊連結即可進到 Google Colab 環境執行。

執行前建議可先點擊選單「檔案」─「在雲端硬碟中儲存複本」,複製一份到自己的雲端硬體,方便如果想修改測試時更為方便。接著點擊選單「編輯」─「清除所有輸出內容」,方便稍後觀察運行過程中產出的內容。最後點擊選單「執行階段」─「全部執行」即可看到所有運行結果。

原則上這個範例程式可分成五大段來看,如下所示。

  1. 原始 YOLOv11 推論結果
  2. 轉換到 OpenVINO IR推論結果
  3. 經過 NNCF 壓縮優化推論結果
  4. 使用基準測試工具進行比較
  5. 連續影片推論展示

這裡為方便大家學習,這裡已把完整源碼[6]步驟簡化為上述五大步驟,並將註解簡化成易懂的中文說明,新版完整範例及說明請參考下方連結。

完整Colab範例程式(點擊後可直接執行)

2024年10月15日 星期二

感謝通過!成為台灣首位Arm開發者計畫大使(Arm Ambassador)

在Arm @Odin 大大的推薦下及提交了最近幾年協助推動 Arm 相關技術的成果,包含大量文章、教學影片及社群互動,歷經多輪審查後,終於成為台灣第一位「Arm 開發者計畫大使」(榮譽職),個人倍感榮幸也深感惶恐,擔心自己能力不足,只能盡力為之。後續如果有關於Arm開發者社群推動、技術推廣或相關事宜,歡迎一起加入。不過小弟能力有限,如果大家想更了解 Arm 相關技術可免費加入開發者計畫,即可獲得更好的技術支援。以下貼出來信及幾張代表圖示,將這份喜悅分享給大家。

“我很高興宣布,我已被選中成為 @Arm Ambassador!我期待支持 Arm Developer Program 社群,並與大家分享我的見解,一起打造 #onArm 的未來。最棒的是,您也可以成為成員。今天就註冊加入,和我一起踏上這段旅程。  #ArmDeveloper”

“I'm excited to announce that I've been selected to become an @Arm Ambassador! I look  forward to supporting the Arm Developer Program community and sharing my insights with you all as we build the future #onArm. The best part? You can become a member too. Sign up today and join me on this journey.  #ArmDeveloper”

#EdgeAI #ArmDevloper #ArmAmbassador #onArm




2024年10月14日 星期一

【課程簡報】20241015_中央太空_微型人工智慧如何應用於立方衛星

感謝今天(2024/10/15)中央大學太空科學與工程學系郭政靈教授的邀約,和同學們分享「微型人工智慧如何應用於立方衛星」。人造衛星從大型(>1000公斤)、中型(500~1000公斤,如福衛二、五號)、小型(100~500公斤,如福衛一、七號)、微型(10~100公斤,如福衛三號)到奈米衛星(1~10公斤,如中央飛鼠、珍珠立方衛星),就像目前Edge AI 離線推論系統從大型伺服器、桌機(筆電、工業電腦)、行動裝置(平板、手機)、單板微電腦(微處理器MPU等級,如樹莓派、Jetson Orin)及微型穿戴式(微控制器MCU、TinyML等級)。 立方衛星和微型人工智慧(TinyML)同樣有著麻雀雖小五臟俱全的特性,資源極其有限卻要發揮最大效能,所以今天就來讓同學們也來感受一下TinyML最新發展。

完整簡報大綱如下所示。

1. 立方衛星發展與系統架構
台灣立方衛星、開發中立方衛星、成功大學 PACE 立方衛星結構圖、成功大學鳳凰立方衛星結構圖、中央大學珍珠立方衛星結構圖、立方衛星常見酬載、立方衛星相關研究論文、AI晶片能上太空?

2. 何謂微型人工智慧 (TinyML)
邊緣智慧(Edge AI)誰說了算?、何謂微型人工智慧(TinyML) ?、常見嵌入式系統架構、常見 Arm 晶片CPU等級及指令集、TinyML常見應用及限制、TinyML案例分享(技術分類)、Edge AI & TinyML開發流程、開發框架與平台 (TinyML / CPU / GPU / NPU / MCU)

3. 單晶片如何加速推論計算
神經網路技術發展、單晶片如何加速推論計算、常見邊緣智慧硬體、常見具視覺TinyML開發板、CES 2024 MCU+NPU 相關產品、模型優化與部署

4. 立方衛星應用 TinyML 情境
* 矩陣計算、姿態計算、向量(矩陣)求解
* 環境異常偵測(異常分類)
* 影像辨識(影像增強、影像分類、物件偵測)
* 開源立方衛星─自由方塊 (LibreCube)

(點擊圖片放大)

2024年10月10日 星期四

如何讓 Arduino 2.0 快速編譯(增量編譯)

 作者:Jack OmniXRI, 2024/10/10

留言

20241010_Fig00

以往在開發簡易型聲音辨識(Keyword Spotting / Voice Command)時常使用 Edge Impulse 來建立及訓練模型,再輸出成 Arduino LIB(ZIP)格式給對應的開發板使用[1]。不過由於 AI 相關函式庫非常多,所以第一次編譯程式時都得等上十到三十分鐘,這還勉強可以接受,但悲劇地是就算什麼都不作,再傳新上傳程式時也要再全部重新編譯一次,這就有點不合乎常理,不是沒更動到的部份就不用重編嗎?難道沒有好的解決方式嗎?