2028年12月31日 星期日

2021年1月19日 星期二

Github上OpenVINO最受歡迎的前20名開源項目

 

最近剛好盤點了一下Github上關於OpenVINO最受歡迎項目,截至2021/1/19止,在Github上使用"OpenVINO"關鍵字進行檢索,共有1,154項,以下就依獲得星星(star)數量簡單列出前20名。

這20名中其中,Intel官方(包括openvinotoolkit, NervanaSystems, movidius)就佔了7項,而Daniil-Osokin貢獻了3項(第7,14,19名),PINTO0309(第9,10,13名)。而就非官方貢獻者,台灣灼灼科技(DT42)第4名則是排在最前面。

另外個人雖然也有貢獻了幾個OpenVINO的開源項目,但目前還排在非常後面,最好的一項也才27顆星,希望未來能有機會再創作幾個有趣的專案分享給大家,這次就先排在第21項,當作是對自己的期許吧!

2020年12月23日 星期三

【開箱測試】研華科技AI人臉辨識運算智能系統

很高興此次受到研華科技(Advantech)邀約協助測試最新「AI人臉辨識運算智能系統」,這是一款性價比不錯且高度整合的硬體組合,搭配和人臉辨識大廠訊連科技(CyberLink)共同合作開發的工業APP「FaceView」及Intel VPU加開源AI推論工具包OpenVINO (Open Visual Inferencing and Neural Network Optimization Toolkit),開機即可使用,不用自己安裝一堆套件及複雜學習便可輕鬆建立VIP及黑名單客戶,在門禁系統、會員管理等應用相當方便。

對於有能力進行程式開發的客戶,亦提供相關的軟體開發套件(SDK)以利更複雜的應用。以下就簡單從「人臉辨識基準」、「系統環境及應用場景」、「操作介面及步驟」、「二次開發環境」、「測試結果」等方面來幫大家介紹一下。

2020年12月18日 星期五

【課程簡報】20201218_台科大_未來前瞻科技跨界人才沙盒論壇_未來數位科技能力培訓工作坊

很高興今天(2020/12/18)受台科大人工智慧中心主任花凱龍老師邀約,出席由台科大管理學院、數位轉型暨前瞻科技人才培育中心、智慧化企業發展中心所舉辦的「未來前瞻科技跨界人才沙盒論壇」並擔任「未來數位科技能力培訓工作坊」講師,分享「AI影像實作─人工智能影像分類實作及應用」這個主題。

本次課程內容和前不久到真理大學分享的三小時實作課程(請參考文末連結)很接近,但此次只有70分鐘,所以課程安排上較為緊湊。此次把模型訓練和推論分開介紹,如此更符合一般使用情境,另外加上PyTorch自帶預訓練模型的使用方式介紹,讓此次學員能更容易上手。

本次課程所有範例程式,可至Github直接下載。(以下圖點擊後放大)

https://github.com/OmniXRI/NTUST_Colab_PyTorch_Classification

2020年12月9日 星期三

【AI HUB專欄】介於有和沒有之間的深度度量學習應用於異常偵測

圖/文 歐尼克斯實境互動工作室 許哲豪 2020/11/26

先前已介紹過多種異常偵測、模型可視化及裂縫檢測技術(參考文末延伸閱讀[A]~[H]),這一次改從另一種角度來介紹異常偵測,「深度度量學習(Deep Metric Learning)」。

在傳統「機器學習(Machine Learning)」領域多半是先透過領域專家以人工方式定義指定數量的特徵,再進行有監督分類或無監督聚類來達成影像辨識或特定目標提取,而最主要區隔資料的依據就是多維資料間的「距離」。雖然此類技術具有較高的可解釋性,但卻難以適用特徵數量較多、資料分佈過於分散或巨大數量的資料集。

近年來流行的「深度學習(Deep Learning)」則採用巨量資料驅動方式,建立出具有高度非線性的分類模型,透過深層的神經網路及巨量的權重值(參數)達成極佳分類效果。但此類作法通常難以理解究竟是用了何種特徵進行分類,僅能藉由可視化工具來幫忙確認主要反應區域。相對於傳統機器學習,在缺乏大量異常樣本的情況下,常難以訓練出穩定可用的模型及參數。

基於上述問題,於是就有結合兩種特性的「深度度量學習(Deep Metric Learning)」誕生了。一般深度學習分類模型,每當新增一類別時,通常需要重新訓練模型產生新的權重(參數),這樣非常耗時且不方便,於是有人就提出直接以模型最後幾層產生的權重值代替傳統手工提取特徵值的作法,計算所有資料分類的距離,如此便能得知新的分類和其它分類的距離關係,進而達分類的目的。為更清楚說明,以下就從「資料距離量測」、「深度度量學習原理」及「異常偵測應用方式」來進一步說明。

【課程簡報】20201208_真理資工_手把手教你建置自己的智慧影像分類系統

很高興昨天(2020/12/8)第二次受真理大學資工系陳炯良老師邀約和同學們分享AI相關技術,這次為「自造應用開發─人工智慧與邊緣運算」,主題為「手把手教你建置自己的智慧影分類系統」。

 本次課主要是指導同學如何在Colab上配合PyTorch, Google Drive雲端硬碟等工具實作一個自定義資料集及卷積神經網路(CNN),最後再說明如何部署到目前較最新的Nvidia Jetson Nano 2GB版本硬體上,完整簡報內容如下所示。相關程式碼請至下列連結下載。

https://github.com/OmniXRI/Colab_PyTorch_Classification

如有任何問題歡迎於下方留言區交流互動。(點擊圖片放大)

註:為方便大家避免打錯字,簡報中很多輸入的指令可參考上述連結中的jetson_nano_2GB_setup.txt

 

2020年12月4日 星期五

如何在Colab上顯示雲端硬碟(Google Drive)上的影像和視頻

 Google Colab提供大家很方便練習OpenCV, Python及各種AI程式,但大家最常遇到的就是無法直接顯示影像(image)及視頻(video)問題,這樣對即時要了解執行狀況的人很不方便。最近剛好找到一些解決方案,整理成幾個範例供大家參考一下。主要內容包括:

1. 將欲存取的檔案自行上傳到雲端硬碟(Google Drive)
2. 掛載自己的Google Drive
3. 選擇習慣之影像顯示方式
   方法1.1 透過matplotlib show()顯示
   方法1.2 透過IPython.display及PIL顯示
   方法1.3 以Colab自帶cv2_imshow()函式顯示
4. 選擇習慣之視頻顯示方式
   方法2.1 透過IPython.display HTML()及base64 b64encode()函式庫顯示視頻
   方法2.2 利用ffmpeg處理OpenCV VideoWriter()產出視頻播放問題

完整的程式範例可參考本工作室 Github https://github.com/OmniXRI/Colab_OpenCV_Display

2020年11月23日 星期一

【AI HUB專欄】利用深度學習技術讓裂縫無所遁形

圖/文 歐尼克斯實境互動工作室 許哲豪 2020/11/12

在上一篇「看電腦視覺如何助力智能裂縫偵測技術發展」[1]中已初步對「裂縫偵測」中常見的「裂縫型態」、「裂縫標註方式」、「裂縫偵測算法及模型」及「裂縫公開資料集」等方面作了初步介紹。本文將針對其中「裂縫偵測算法及模型」的「深度學習模型」類偵測方法再作進一步說明,而以傳統「影像處理算法」的裂縫偵測技術就請參考上一篇文章 [1]介紹,這裡就不再贅述。

以深度學習模型作為「裂縫偵測」大致上可以分成偵測有無裂縫的「影像分類(Image Classification)」,找出裂縫所在位置邊界框的「物件偵測(Object Detection)」 及精準標示出屬於裂縫位置像素的「語義分割(Semantic Segmentation)」。不同的算法所需算力、偵測能力、適合裂縫類型及輸出應用各有不同,沒有唯一解法,以下就舉幾個例子來說明不同概念下的作法及其優缺點。

2020年11月9日 星期一

歐尼克斯實境互動工作室部落格及FB成立三週年

從2017/11/8成立至今已滿三年了,又是到了自我檢視的時候了。感謝過去一年間大家的支持,點閱率新增81,535次,共貼文45篇,其中包括AI Hub AI專欄14篇,10次受邀演講課程講義。貼文數量雖沒有很多,但每一篇花費在寫作的時間較以往來說多了五到十倍,主要是因為整理AI專欄素材。

今(2020)年5月2日,成立了台灣第一個專門討論小型AI應用、邊緣智能運算相關應用的Facebook社團「Edge AI Taiwan邊緣智能交流區」,短短六個多月已有1,154位同好加入且互動良好,實在非常感謝。為了維護這個社團及至少每日更新一則訊息,也花費不少時間收集資訊,間接也導致寫部落格時間減少,實在分身乏術,敬請見諒。

以下幾張貼圖就是過去一年的成果,感謝大家的點閱、按讚,讓我有繼續寫下去的動力,如果覺得部落格或FB社團中的內容還用得上,歡迎多多分享給需要的人,謝謝!

 

部落格總點閱數23,7598(2019/11/08 - 2020/11/08 )(點擊圖放大)


部落格點閱統計(2019/11/08 - 2020/11/08 )(點擊圖放大)


十大點擊率文章部落格總點閱數23,7598(2019/11/08 - 2020/11/08 )(點擊圖放大)


Facebook 社團 Edge AI Taiwan 邊緣智能交流區,成員數1,154。(2019/11/08 - 2020/11/08 )(點擊圖放大)

Edge AI Taiwan 邊緣智能交流區貼文數及活躍人數。(2020/5/2~2020/11/08)(點擊圖放大)


【AI HUB專欄】看電腦視覺如何助力智能裂縫偵測技術發展

圖/文 歐尼克斯實境互動工作室 許哲豪 2020/10/29

在先前文章「導入AI表面瑕疵異常偵測提升智慧製造品質」[1]中曾介紹表面瑕疵偵測的相關技術,其中包含點、線、面等類型瑕疵,這次就再把重點放到「線型瑕疵」中的「裂縫偵測(Crack Detection)」這個主題,繼續和大家做進一步分享。

在工業、機械、建築、電子領域中,當材料在加工或組裝過程受到不當外力(如夾持、撞擊、剪力、振動)時,狀況嚴重的可能會產生結構性損壞及外表破損問題,輕則外型仍保持良好,但表面已經產生肉眼可見的裂縫。如果是一般中、小型電子或機械零件產生裂縫尚可直接淘汰,但若是大型機械結構、建物、橋樑、牆壁、地面則需要進行適當補強,不然可能會造成人身安全疑慮。

常見裂縫偵測方式包括目視(或電腦視覺)、壓力或洩漏、紅外線熱感影像、超音波、渦電流、雷射掃描測距及其它各種非破壞性物理量測設備。本文將著重在一般可見光(彩色或灰階)影像裂縫分析方式,而其它物理量轉成的數位影像由於特性差異頗大,暫不列入討論範圍。

另外「刮痕」也是常見且類似較細的「裂縫」,而二者的差異在於前者通常為直線段、痕跡深度、顏色較淺,有時肉眼還需於特定角度反光下才能看到,這些多半是美觀問題,較無結構安全性問題。而真正的裂縫是指材料已遭到破壞,通常會在目視時產生明顯、顏色較深的內容,而其痕跡則較不規則,粗細也不一,經常會產生許多分叉。由於兩者偵測方式有滿大的差異,故本文僅討論「裂縫偵測」問題。

另外由於裂縫偵測常會伴隨不同材質產生不同的裂縫型態問題,加上不同的背景雜訊干擾,亦會影響相關算法及模型,故很難用一種算法或模型完全克服。為更清楚說明,以下分別就常見的「裂縫型態」、「裂縫標註方式」、「裂縫偵測算法及模型」及「裂縫公開資料集」等方面作進一步說明。

【頂置】簡報、源碼、系列文快速連結區

常有人反應用手機瀏覽本部落格時常要捲很多頁才能找到系列發文、開源專案、課程及活動簡報,為了方便大家快速查詢,特整理連結如下,敬請參考! Edge AI Taiwan 邊緣智能交流區 全像顯示與互動交流區 【課程及活動簡報】>> 【開源碼專區】...