網頁

2020年12月23日 星期三

【開箱測試】研華科技AI人臉辨識運算智能系統

很高興此次受到研華科技(Advantech)邀約協助測試最新「AI人臉辨識運算智能系統」,這是一款性價比不錯且高度整合的硬體組合,搭配和人臉辨識大廠訊連科技(CyberLink)共同合作開發的工業APP「FaceView」及Intel VPU加開源AI推論工具包OpenVINO (Open Visual Inferencing and Neural Network Optimization Toolkit),開機即可使用,不用自己安裝一堆套件及複雜學習便可輕鬆建立VIP及黑名單客戶,在門禁系統、會員管理等應用相當方便。

對於有能力進行程式開發的客戶,亦提供相關的軟體開發套件(SDK)以利更複雜的應用。以下就簡單從「人臉辨識基準」、「系統環境及應用場景」、「操作介面及步驟」、「二次開發環境」、「測試結果」等方面來幫大家介紹一下。

2020年12月18日 星期五

【課程簡報】20201218_台科大_未來前瞻科技跨界人才沙盒論壇_未來數位科技能力培訓工作坊

很高興今天(2020/12/18)受台科大人工智慧中心主任花凱龍老師邀約,出席由台科大管理學院、數位轉型暨前瞻科技人才培育中心、智慧化企業發展中心所舉辦的「未來前瞻科技跨界人才沙盒論壇」並擔任「未來數位科技能力培訓工作坊」講師,分享「AI影像實作─人工智能影像分類實作及應用」這個主題。

本次課程內容和前不久到真理大學分享的三小時實作課程(請參考文末連結)很接近,但此次只有70分鐘,所以課程安排上較為緊湊。此次把模型訓練和推論分開介紹,如此更符合一般使用情境,另外加上PyTorch自帶預訓練模型的使用方式介紹,讓此次學員能更容易上手。

本次課程所有範例程式,可至Github直接下載。(以下圖點擊後放大)

https://github.com/OmniXRI/NTUST_Colab_PyTorch_Classification

2020年12月9日 星期三

【AI HUB專欄】介於有和沒有之間的深度度量學習應用於異常偵測

圖/文 歐尼克斯實境互動工作室 許哲豪 2020/11/26

先前已介紹過多種異常偵測、模型可視化及裂縫檢測技術(參考文末延伸閱讀[A]~[H]),這一次改從另一種角度來介紹異常偵測,「深度度量學習(Deep Metric Learning)」。

在傳統「機器學習(Machine Learning)」領域多半是先透過領域專家以人工方式定義指定數量的特徵,再進行有監督分類或無監督聚類來達成影像辨識或特定目標提取,而最主要區隔資料的依據就是多維資料間的「距離」。雖然此類技術具有較高的可解釋性,但卻難以適用特徵數量較多、資料分佈過於分散或巨大數量的資料集。

近年來流行的「深度學習(Deep Learning)」則採用巨量資料驅動方式,建立出具有高度非線性的分類模型,透過深層的神經網路及巨量的權重值(參數)達成極佳分類效果。但此類作法通常難以理解究竟是用了何種特徵進行分類,僅能藉由可視化工具來幫忙確認主要反應區域。相對於傳統機器學習,在缺乏大量異常樣本的情況下,常難以訓練出穩定可用的模型及參數。

基於上述問題,於是就有結合兩種特性的「深度度量學習(Deep Metric Learning)」誕生了。一般深度學習分類模型,每當新增一類別時,通常需要重新訓練模型產生新的權重(參數),這樣非常耗時且不方便,於是有人就提出直接以模型最後幾層產生的權重值代替傳統手工提取特徵值的作法,計算所有資料分類的距離,如此便能得知新的分類和其它分類的距離關係,進而達分類的目的。為更清楚說明,以下就從「資料距離量測」、「深度度量學習原理」及「異常偵測應用方式」來進一步說明。

【課程簡報】20201208_真理資工_手把手教你建置自己的智慧影像分類系統

很高興昨天(2020/12/8)第二次受真理大學資工系陳炯良老師邀約和同學們分享AI相關技術,這次為「自造應用開發─人工智慧與邊緣運算」,主題為「手把手教你建置自己的智慧影分類系統」。

 本次課主要是指導同學如何在Colab上配合PyTorch, Google Drive雲端硬碟等工具實作一個自定義資料集及卷積神經網路(CNN),最後再說明如何部署到目前較最新的Nvidia Jetson Nano 2GB版本硬體上,完整簡報內容如下所示。相關程式碼請至下列連結下載。

https://github.com/OmniXRI/Colab_PyTorch_Classification

如有任何問題歡迎於下方留言區交流互動。(點擊圖片放大)

註:為方便大家避免打錯字,簡報中很多輸入的指令可參考上述連結中的jetson_nano_2GB_setup.txt

 

2020年12月4日 星期五

如何在Colab上顯示雲端硬碟(Google Drive)上的影像和視頻

 Google Colab提供大家很方便練習OpenCV, Python及各種AI程式,但大家最常遇到的就是無法直接顯示影像(image)及視頻(video)問題,這樣對即時要了解執行狀況的人很不方便。最近剛好找到一些解決方案,整理成幾個範例供大家參考一下。主要內容包括:

1. 將欲存取的檔案自行上傳到雲端硬碟(Google Drive)
2. 掛載自己的Google Drive
3. 選擇習慣之影像顯示方式
   方法1.1 透過matplotlib show()顯示
   方法1.2 透過IPython.display及PIL顯示
   方法1.3 以Colab自帶cv2_imshow()函式顯示
4. 選擇習慣之視頻顯示方式
   方法2.1 透過IPython.display HTML()及base64 b64encode()函式庫顯示視頻
   方法2.2 利用ffmpeg處理OpenCV VideoWriter()產出視頻播放問題

完整的程式範例可參考本工作室 Github https://github.com/OmniXRI/Colab_OpenCV_Display

2020年11月23日 星期一

【AI HUB專欄】利用深度學習技術讓裂縫無所遁形

圖/文 歐尼克斯實境互動工作室 許哲豪 2020/11/12

在上一篇「看電腦視覺如何助力智能裂縫偵測技術發展」[1]中已初步對「裂縫偵測」中常見的「裂縫型態」、「裂縫標註方式」、「裂縫偵測算法及模型」及「裂縫公開資料集」等方面作了初步介紹。本文將針對其中「裂縫偵測算法及模型」的「深度學習模型」類偵測方法再作進一步說明,而以傳統「影像處理算法」的裂縫偵測技術就請參考上一篇文章 [1]介紹,這裡就不再贅述。

以深度學習模型作為「裂縫偵測」大致上可以分成偵測有無裂縫的「影像分類(Image Classification)」,找出裂縫所在位置邊界框的「物件偵測(Object Detection)」 及精準標示出屬於裂縫位置像素的「語義分割(Semantic Segmentation)」。不同的算法所需算力、偵測能力、適合裂縫類型及輸出應用各有不同,沒有唯一解法,以下就舉幾個例子來說明不同概念下的作法及其優缺點。

2020年11月9日 星期一

歐尼克斯實境互動工作室部落格及FB成立三週年

從2017/11/8成立至今已滿三年了,又是到了自我檢視的時候了。感謝過去一年間大家的支持,點閱率新增81,535次,共貼文45篇,其中包括AI Hub AI專欄14篇,10次受邀演講課程講義。貼文數量雖沒有很多,但每一篇花費在寫作的時間較以往來說多了五到十倍,主要是因為整理AI專欄素材。

今(2020)年5月2日,成立了台灣第一個專門討論小型AI應用、邊緣智能運算相關應用的Facebook社團「Edge AI Taiwan邊緣智能交流區」,短短六個多月已有1,154位同好加入且互動良好,實在非常感謝。為了維護這個社團及至少每日更新一則訊息,也花費不少時間收集資訊,間接也導致寫部落格時間減少,實在分身乏術,敬請見諒。

以下幾張貼圖就是過去一年的成果,感謝大家的點閱、按讚,讓我有繼續寫下去的動力,如果覺得部落格或FB社團中的內容還用得上,歡迎多多分享給需要的人,謝謝!

 

部落格總點閱數23,7598(2019/11/08 - 2020/11/08 )(點擊圖放大)


部落格點閱統計(2019/11/08 - 2020/11/08 )(點擊圖放大)


十大點擊率文章部落格總點閱數23,7598(2019/11/08 - 2020/11/08 )(點擊圖放大)


Facebook 社團 Edge AI Taiwan 邊緣智能交流區,成員數1,154。(2019/11/08 - 2020/11/08 )(點擊圖放大)

Edge AI Taiwan 邊緣智能交流區貼文數及活躍人數。(2020/5/2~2020/11/08)(點擊圖放大)


【AI HUB專欄】看電腦視覺如何助力智能裂縫偵測技術發展

圖/文 歐尼克斯實境互動工作室 許哲豪 2020/10/29

在先前文章「導入AI表面瑕疵異常偵測提升智慧製造品質」[1]中曾介紹表面瑕疵偵測的相關技術,其中包含點、線、面等類型瑕疵,這次就再把重點放到「線型瑕疵」中的「裂縫偵測(Crack Detection)」這個主題,繼續和大家做進一步分享。

在工業、機械、建築、電子領域中,當材料在加工或組裝過程受到不當外力(如夾持、撞擊、剪力、振動)時,狀況嚴重的可能會產生結構性損壞及外表破損問題,輕則外型仍保持良好,但表面已經產生肉眼可見的裂縫。如果是一般中、小型電子或機械零件產生裂縫尚可直接淘汰,但若是大型機械結構、建物、橋樑、牆壁、地面則需要進行適當補強,不然可能會造成人身安全疑慮。

常見裂縫偵測方式包括目視(或電腦視覺)、壓力或洩漏、紅外線熱感影像、超音波、渦電流、雷射掃描測距及其它各種非破壞性物理量測設備。本文將著重在一般可見光(彩色或灰階)影像裂縫分析方式,而其它物理量轉成的數位影像由於特性差異頗大,暫不列入討論範圍。

另外「刮痕」也是常見且類似較細的「裂縫」,而二者的差異在於前者通常為直線段、痕跡深度、顏色較淺,有時肉眼還需於特定角度反光下才能看到,這些多半是美觀問題,較無結構安全性問題。而真正的裂縫是指材料已遭到破壞,通常會在目視時產生明顯、顏色較深的內容,而其痕跡則較不規則,粗細也不一,經常會產生許多分叉。由於兩者偵測方式有滿大的差異,故本文僅討論「裂縫偵測」問題。

另外由於裂縫偵測常會伴隨不同材質產生不同的裂縫型態問題,加上不同的背景雜訊干擾,亦會影響相關算法及模型,故很難用一種算法或模型完全克服。為更清楚說明,以下分別就常見的「裂縫型態」、「裂縫標註方式」、「裂縫偵測算法及模型」及「裂縫公開資料集」等方面作進一步說明。

2020年10月24日 星期六

【課程簡報】20201024_AIGO LAB解題實務工作坊(二)_採果辨識解題與技術開發

很高興今日(2020/10/24)受邀和大家分享如何使用Colab及OpenVINO來進行採果辨識系統開發。這次課程主要以實作為主、原理為輔,另外搭配很多程式碼說明。主要簡報內容大致如下。(點擊圖片放大)

物件偵測/辨識技術簡介
技術發展歷史
性能評量方式

取像、建立與標註資料集
常見物件偵測資料集
資料集格式介紹
labelImg安裝與使用

Google Colab程式碼體驗
Colab基本介紹
OpenVINO簡介
安裝OpenVINO到Colab
下載標註資料、預訓權重
資料集重新分配、轉換
模型訓練
影像推論 

課程相關程式碼請至本部落格GITHUB https://github.com/OmniXRI/20201024_AIGO_Lab2 下載。


2020年10月16日 星期五

【AI HUB專欄】如何建立精準標註的電腦視覺資料集

 

圖/文 歐尼克斯實境互動工作室 許哲豪 2020/10/08

應用「深度學習」或「人工智慧」技術的朋友應該都知道,想要有好的成果必須建立在「算法(模型)」、「算力」、「資料(數據)集」及「領域知識」四大基礎之上,尤其在「監督式學習」領域下,乾淨及精準標註的資料集更是不可或缺。近年來「電腦視覺」及「自然語言處理(理解)」技術的突飛猛進,正是依靠巨量及標註品質良好的資料集。以下本文將先針對「電腦視覺」中常用的「影像分類(Image Classification)」、「物件偵測(定位)(Object Detection / Location)」、「語義(像素級)分割(Semantic Segmentation)」、「實例分割(Instance Segmentation)」、「全景分割(Panoptic Segmentation)」及「人體骨架(Human Skeleton)」等幾大領域作簡單的「任務定義」,接著再對常見的「資料集格式」、「標註形式」及「標註工具」逐一說明。

2020年10月5日 星期一

【AI HUB專欄】誰說鼻子長的就是大象?從類別活化映射與積分梯度來看特徵提取與顯著性差異

圖/文 歐尼克斯實境互動工作室 許哲豪 2020/9/24

在先前兩篇「如何利用可視化工具揭開神經網路背後的祕密」上篇[1]及下篇[2]中已初步介紹如何將卷積神經網路(Convolutional Neural Network, CNN)推論結果可視化及其基本原理。這一次就來聊聊經過可視化處理產生的顯著圖(Saliency Map)或稱熱力圖(Heat Map)活化圖(Activation Map)究竟是否為人類真正關心的特徵(Features),或者說這些計算出來較為顯著(重要)的地方是否可以幫助我們解釋模型究竟學會了什麼?

在卷積神經網路可視化工具中,較常見的方式有基於擾動法(Perturbation-based)反向傳播法(Propagation-based)活化映射法(Activation-based),而其中後兩者最主要皆有用到梯度(Gradient)這項基本概念,即希望找出輸入內容造成輸出變化較大的地方,換句話說就是模型權重值影響最大的地方,也是最重要的或特徵所在的地方。

但不幸地是,目前梯度法仍有許多使用上的限制及不足,而可視化所提取出的顯著圖也能未必能完全代表人類視覺上所期望的特徵,因此接下來就分別從「何謂梯度」、「梯度飽和」、「積分梯度」及「遮罩優化」等四個面向來討論如何改善及使顯著圖和視覺特徵上能更佳接近。

2020年9月29日 星期二

【課程簡報】Intel人工智慧運算 #1─快速掌握機器手臂視覺辨識技術

很高興這次能和Intel & Sertek & MakerPro共同合作擔任「Intel人工智慧運算」線上系列課程講師,本次主題為「快速掌握機器手臂視覺辨識技術」,共有三小段課程,包括:

  1. 【Overview】Intel OpenVINO及RealSense的定位與特色 盧育德(Collins Lu)
  2. 【Tech Review】OpenVINO x 機器手臂視覺辨識技術 許哲豪(Jack Hsu)
  3. 【Use Case Demo】工廠產線的機器手臂視覺應用 顏清輝(Gray Yan)

 


這是一項免費課程,只要上網完成註冊及報名就能觀看完整教學影片,完整課程連結 : https://makerpro.cc/learning/

2020年9月20日 星期日

【AI HUB專欄】如何利用可視化工具揭開神經網路背後的祕密(下)


圖/文 歐尼克斯實境互動工作室 許哲豪 2020/9/10

卷積神經網路(Convolutional Neural Network, CNN) 在人工智慧中的影像分類、物件偵測等項目的優異表現已是眾所皆知了,但其背後複雜的模型(網路)結構及龐大參數量(權重值)究竟提供何種作用,一直都令人費解,無人不想了解這個神祕的黑箱。在上一期「如何利用可視化工具揭開神經網路背後的祕密(上)」[1]中已幫大家介紹了分層特徵圖(Layer Feature Maps)敏感度分析(Sensitivity Analysis, SA)有向非循環圖 (Directed Acyclic Graph, DAG)反卷積網路(Deconvolution Network, DeconvNet)等四種可視化工具。這一期要接著為大家介紹CAM家族的四大常見可視化工具,包括:

  • 類別活化映射(Class Activation Mapping, CAM)
  • 梯度加權類別活化映射(Gradient-weighted CAM, Grad-CAM)
  • 梯度加權類別活化映射改良(Grad-CAM++)
  • 分數加權類別活化映射(Score-CAM)


Fig. 1 常見卷積神經網路LeNet-5架構。(Sep. 2020 OmniXRI整理繪製)(點擊圖放大)

2020年9月10日 星期四

如何在Google Colab上安裝執行Intel OpenVINO的範例


 

各位有在玩Intel OpenVINO的人都知道,這項開源推論工具可支援多種作業系統(Windows, Linux, Raspbian, Docker...)、程式語言(C++, Python...)及不同硬體(Intel's CPU, GPU, VPU, FPGA...),加上很多預訓練好的模型,可以很方便測試人工智慧經常遇到的應用情境。

最常見的用法就是直接在電腦或樹莓派USB埠插上一組Intel神經運算棒(NCS2, VPU)來練習。但如果遇到要教學或臨時要測試時,不容易找到多台裝好OpenVINO的主機或是沒有足夠數量的神經運算棒時,就會變得很不方便。

玩AI的人都知道,Google有佛心的提供免費虛擬主機加上GPU及TPU運算資源給大家,稱為Colab。這個工具不僅幫我們把Jupyter Notebook環境架好,連基本的TensorFlow, OpenCV等常用的工具包都已建置完成,很方便直接進行深度學習的模型開發、測試、訓練及推論。

之前Colab這項免費資源並沒有和Intel OpenVINO有太多連結。最近剛好看到INTEL釋出的一個範例,馬上吸引到我的目光,因為它完美解決了這個問題,直接用Colab虛擬機上的Intel CPU (二顆Xeon)來執行OpenVINO。於是馬上動手測試一下並整理出三個基本範例給大家參考。

2020年9月7日 星期一

【AI HUB專欄】如何利用可視化工具揭開神經網路背後的祕密(上)

圖/文 歐尼克斯實境互動工作室 許哲豪 2020/8/27

2012年Alex Krizhevsky和其指導教授知名圖靈獎得主Geoffrey Everest Hinton以「AlexNet」卷積神經網路(Convolution Neural Network, CNN)贏得大規模視覺辨識挑戰賽(ImagNet Large Scale Visual Recognition Competition, ILSVR),並以低於第二名10%以上的錯誤率受到極大矚目,從此打開人工智慧及「深度學習」的新紀元。雖然CNN利用多層卷積(Convolution)、池化(Pooling)層及扁平化(Flatten)、全連結(Full Connected)構成的模型(神經網路)有著極佳地分類能力,但沒有人可以理解其背後意義,不像傳統機器學習技術中的決策樹(Decision Tree, DT)或支援向量機(Support Vector Machine, SVM)有著清楚的特徵及物理意義。

2020年9月5日 星期六

【課程簡報】20200905_TCN南投創客基地_如何在樹莓派上用Python玩轉開源電腦視覺工具OpenCV (下篇)

 很高興今天(2020/9/5)受邀到「青年職涯發展中心暨TCN創客基地南投服務據點」分享「如何在樹莓派上用Python玩轉開源電腦視覺工具OpenCV 」。此次屬於實作型課程,時間較長共四小時,所以分成上、下午進行,簡報部份也分為上、下兩篇。主要大綱如下:(點擊圖片放大)

*OpenCV簡介及安裝介紹(1小時)
  發展歷史、主要元件、安裝介紹、基本影像存取
*彩色影像處理簡介(1小時)
  數位影像原理、灰階影像處理、彩色影像轉換、色彩提取

上篇連結:https://omnixri.blogspot.com/2020/09/20200905tcnpythonopencv.html


*數位影像濾波及繪圖(1小時)
  邊緣偵測、影像平滑/強化、影像縮放、繪圖函數
*整合範例(1小時)
  人臉偵測、I/O訊號處理、圖文標示、影像裁切

下篇連結: https://omnixri.blogspot.com/2020/09/20200905tcnpythonopencv_5.html

 

 另外提供練習用的範例程式,可至下列網址下載:

https://gitlab.com/omnixri/tcn20200905

 


【課程簡報】20200905_TCN南投創客基地_如何在樹莓派上用Python玩轉開源電腦視覺工具OpenCV (上篇)

 很高興今天(2020/9/5)受邀到「青年職涯發展中心暨TCN創客基地南投服務據點」分享「如何在樹莓派上用Python玩轉開源電腦視覺工具OpenCV 」。此次屬於實作型課程,時間較長共四小時,所以分成上、下午進行,簡報部份也分為上、下兩篇。主要大綱如下:(點擊圖片放大)

*OpenCV簡介及安裝介紹(1小時)
  發展歷史、主要元件、安裝介紹、基本影像存取
*彩色影像處理簡介(1小時)
  數位影像原理、灰階影像處理、彩色影像轉換、色彩提取

上篇連結:https://omnixri.blogspot.com/2020/09/20200905tcnpythonopencv.html


*數位影像濾波及繪圖(1小時)
  邊緣偵測、影像平滑/強化、影像縮放、繪圖函數
*整合範例(1小時)
  人臉偵測、I/O訊號處理、圖文標示、影像裁切

下篇連結: https://omnixri.blogspot.com/2020/09/20200905tcnpythonopencv_5.html

 

 另外提供練習用的範例程式,可至下列網址下載:

https://gitlab.com/omnixri/tcn20200905

 


2020年8月22日 星期六

【AI HUB專欄】如何應用高維資料可視化一眼看穿你的資料集

 
圖/文 歐尼克斯實境互動工作室 許哲豪 2020/8/13

在大數據及人工智慧時代中,人人都知道要有巨量資料才能用來學分析、提取或學習到有效資訊,但你真的知道你的資料集中隱藏著什麼關聯及祕密嗎?比方說統計每個人的身高、體重(二維資料)即可很容易透過二維圖表找出較大的群聚(Cluster)組合,進而用來開發出適合不同族群所需的服飾或相關產品。但當資料維度超過三維時,就很難用可視化圖形表示,這也意味著人們更難直覺地了解巨量資料之間的分佈結構及關連。而這個問題在影像資料上就更為嚴重,以一張100x100灰階影像資料為例,其資料維度就高達一萬維,更不要說高解析彩色照片動輒數百萬到數千萬維。若再加上巨量資料在超高維空間中分佈超稀疏的問題,難以用傳統方式聚類,因此這樣的困境常被稱為「維度災難(Curse of Dimensionality或稱維度詛咒)」[1]。

2020年8月17日 星期一

【課程簡報】20200817_國資圖_由人工智慧看台灣產業大未來暨如何引領圖書館邁向智慧新世代

很高興今天(2020/8/17)受邀到台中國立公共資訊圖書館演講,分享主題為「由人工智慧看台灣產業大未來暨如何引領圖書館邁向智慧新世代」。此次主要分成二個部份,第一部份是介紹AI相關知識及產業,第二部份則介紹未來智慧圖書館如何應用這些AI技術。課程大綱如下所示。

人工智慧與台灣產業

發展歷史、組成要素、主要分類(工作流程)、應用情境(電腦視覺、自然語言、數據分析)、產業發展(醫療、教育、家庭、生活、城市、交通、建築、金融、農業、製造、行銷、零售)、未來趨勢(人工/工人智慧?、未來趨勢)

未來智慧圖書館

圖書館歷史與發展(圖書館演進、影音/文字共享、智慧圖書館)、影像式AI虛擬助理、自然語言智慧檢索、智慧書單推薦系統、機器人維運及互動、未來發展與新趨勢(虛/實?、閱讀/視讀?、書籍/資料集?)

(點擊圖放大)

2020年8月3日 星期一

【AI HUB專欄】生成對抗網路不只能變臉也能成為異常偵測好幫手


圖/文 歐尼克斯實境互動工作室 許哲豪 2020/7/23

「人工智慧」無中生有的本事是眾所皆知,從早期的自動生成一張超逼真卻不存在世上的人臉,到可隨意替換影像中人臉的Deep Fake,及每隔一陣子就造成社群洗板的變臉濾鏡APP,讓人可任意變成兒童、老人、男(女)生甚至是卡通人物,皆是人工智慧的傑作。除此之外,人工智慧還可學習某些畫作的風格,再套用至一般影像中創作出類似風格的畫作,或者是將早期模糊不清或破損的影像進行修復,包括填補、上色及提高解析度。而「人臉生成」、「風格遷移」及「圖像修復」這些應用(如Fig. 1下圖所示)背後都有一項重要技術,那就是「生成對抗網路(Generative Adversarial Network, GAN)」。

2020年8月1日 星期六

【課程簡報】20200801_南開科大_如何應用電腦視覺及人工智慧進行百香果智能分級(3/4)

很高興今天(2020/8/1)受南開科技大學林正敏副校長邀約至南投768藝術空間和Nantou.py的伙伴們一起分享「如何應用電腦視覺及人工智慧進行百香果智能分級」這項主題。本次課程時間較長共計三個小時,所以分成三個主題,另外將相關論文連結獨立成一頁,希望有興趣的朋友可以多多參考,完整簡報內容及連結如下所示。(點擊圖片放大)





【課程簡報】20200801_南開科大_如何應用電腦視覺及人工智慧進行百香果智能分級(2/4)

很高興今天(2020/8/1)受南開科技大學林正敏副校長邀約至南投768藝術空間和Nantou.py的伙伴們一起分享「如何應用電腦視覺及人工智慧進行百香果智能分級」這項主題。本次課程時間較長共計三個小時,所以分成三個主題,另外將相關論文連結獨立成一頁,希望有興趣的朋友可以多多參考,完整簡報內容及連結如下所示。(點擊圖片放大)





【課程簡報】20200801_南開科大_如何應用電腦視覺及人工智慧進行百香果智能分級(1/4)

很高興今天(2020/8/1)受南開科技大學林正敏副校長邀約至南投768藝術空間和Nantou.py的伙伴們一起分享「如何應用電腦視覺及人工智慧進行百香果智能分級」這項主題。本次課程時間較長共計三個小時,所以分成三個主題,另外將相關論文連結獨立成一頁,希望有興趣的朋友可以多多參考,完整簡報內容及連結如下所示。(點擊圖片放大)





【課程簡報】20200801_南開科大_如何應用電腦視覺及人工智慧進行百香果智能分級(4/4)

很高興今天(2020/8/1)受南開科技大學林正敏副校長邀約至南投768藝術空間和Nantou.py的伙伴們一起分享「如何應用電腦視覺及人工智慧進行百香果智能分級」這項主題。本次課程時間較長共計三個小時,所以分成三個主題,另外將相關論文連結獨立成一頁,希望有興趣的朋友可以多多參考,完整簡報內容及連結如下所示。(點擊圖片放大)





2020年7月20日 星期一

【AI HUB專欄】人工智慧下一個兵家必爭之地【AI市集】


圖/文 歐尼克斯實境互動工作室 許哲豪 2020/7/9

大家通常買了新手機就會急忙到「應用程式市集(APP Store)」(如Google Play, Apple Store…)去下載常用的通訊、娛樂、新聞、工具等免費應用程式。常然也會到知名遊戲平台「Steam」去下載一些付費的手機遊戲。或者是到影音、知識創作平台(如Youtube, Bilibili, 知乎. 抖音…)去觀賞、評論、贊助這些優秀的創作者。但說到人工智慧應用怎麼好像沒有一個知名的「AI市集(Marketplace)」能讓使用者很方便找到相關應用程式、資料集、模型(算法)並付費(或免費)下載呢?其實並不是沒有,而是現階段仍有許多問題有待克服,導致無法大行其道。那未來是否有機會成為下一個具獲利空間的兵家必爭之地呢?就讓我慢慢為大家道來。

2020年7月3日 星期五

【AI HUB專欄】導入AI表面瑕疵異常偵測提升智慧製造品質


圖/文 歐尼克斯實境互動工作室 許哲豪 2020/6/25

在前兩篇「導入AI異常偵測技術讓傳產也能邁向智慧製造」[1]和「如何利用時序型資料異常偵測提昇智慧製造成效」[2]中已幫大家介紹過關於智慧製造中常會遇到的「一元分類型(One-Class Classification)」及「時序型(Time-Series)」資料異常偵測(Anomaly Detection, AD),而這些作法大多僅適用在單一信號源或低維度資料,而本文將繼續延伸至超高維度的「影像類型(Image Type)」異常偵測,藉此說明如何利用人工智慧來提升產品製造品質。

2020年6月29日 星期一

空拍機一次裝七台Intel RealSense D435根本是炫富吧?

Intel最近和空拍機知名廠商Envrdrone一起合作了一個專案,用了6+1台(六台環景360度加一台向下)Intel RealSense D435裝在空拍機上,用於載送AED到指定位置作為急救心臟病患者使用。AED(Automated External Defibrillator),又稱為「自動體外心臟電擊去顫器」,是一台能夠自動偵測傷病患心律脈搏、並施以電擊使心臟恢復正常運作的儀器。

Everdrone搭載七台Intel RealSense D435的空拍機 [圖片來源](點擊圖放大)

2020年6月22日 星期一

【課程簡報】AIGO社群交流會#3_後疫情時代人工智慧如何助攻疫情控制

很高興今天受AIGO及MakerPro邀約和大家分享「後疫情時代人工智慧如何助攻疫情控制」這個題目。雖然台灣疫情暫時不受全世界影響,但此次分享會仍採線上直播模式,讓我當了一回Up主,沒有現場觀眾,實在是一次有趣的經驗。

此次分享主要包括人工智慧在疫情各階段能施力的情境介紹,而重點更放在下列四個項目:列管人員定位遠端居家照護社交距離偵測經濟活動預測

更完整內容請參見下列簡報。(點擊圖放大)


2020年6月20日 星期六

歐尼克斯實境互動工作室部落格瀏覽破二十萬

本工作室部落格自2017/11/8成立至今約二年半,感謝大家不嫌棄,今天(2020/6/20)點閱數突破二十萬大關,值得竊喜一番。雖然這不是什麼太大的成就,但對我是非常大的鼓勵,希望後續能持續輸出來報答願意花時間看我文章的網友。

小弟今年(2020/5/2)成立了一個FB社團「Edge AI Taiwan邊緣智能交流區」,專門討論小型AI應用,期望未來有更多能放進口袋、用電池就能執行的AI平台及相關應用,歡迎有興趣的朋友一起加入我們。
https://www.facebook.com/groups/2603355889951761/

2020年6月19日 星期五

【AI HUB專欄】如何利用時序型資料異常偵測提昇智慧製造成效


圖/文 歐尼克斯實境互動工作室 許哲豪 2020/6/11

在智慧製造領域中,異常偵測(Anomaly Detection, AD)的種類非常多,在上一期「導入AI異常偵測技術讓傳產也能邁向智慧製造」[1]中已初步幫大家介紹了如何在只有正常生產資訊下利用非監督式學習的「一元分類(One Class Classification, OCC)」來進行異常偵測,本期內容將繼續延伸至時序型的異常偵測(Time-Series Anomaly Detection)。

在介紹如何偵測時序型資料異常之前,先幫大家科普一下時序型資料的基本性質。時序型資料是將觀測值依固定時間隔取得並記錄而得,多半具有連續性而非隨機值(如語音資料)組成,如各種感測器(溫度、濕度、亮度、重量、馬達轉速等)、股匯價、零售銷售金額、交通流量等等。當連續取得一定數量(時間長度)資料後,便有機會建立預測模型或分析出異常工作範圍。

2020年6月17日 星期三

【心得筆記】Saving 95% of your edge power with Sparsity to enable tinyML

Jon Tapson (left) and Yung-Hsiang Lu (right)

tinyML昨天(2020/6/16)邀請了GrAI Matter Labs首席科學家(CSO) Jon Tapson進行演講,講題是"Saving 95% of your edge power with Sparsity to enable tinyML",主要是介紹如何在邊緣計算上節省95%的算力及電源卻還能達到更高計算(推論)速度同時保持計算精度。

2020年6月5日 星期五

【AI HUB專欄】導入AI異常偵測技術讓傳產也能邁向智慧製造

圖/文 歐尼克斯實境互動工作室 許哲豪 2020/5/28


古人常說「鶴立雞群」來表示某人的才華出眾,高於常人,不同凡響。但如果這句話套用在製造業時則可能會讓生產者和消費者都不太高興,因為沒有人想拿到一個超出(或不足)生產標準的瑕疵品。因此如何穩定生產,即時找出異常生產數據的「異常偵測(Abnormal Detection, AD)」[1]技術就成了「工業4.0」及「智慧製造」不可或缺的一項技術指標。

目前有很多產業及領域都可以運用人工智慧(Artificial Intelligence, AI)或機器學習(Machine Learning, ML)技術來進行「異常偵測」,包括像網路資安入侵、股匯交易、電商消費、金融盗刷、保險詐欺、醫學生理訊號、生產設備運作及環境感測等。而智慧製造領域中,如馬達(速度、電流、雜音)、震動、溫度、噪音及亮度都是需要被長期監測的。另外進階的電腦視覺(Computer Vision, CV)或自動光覺檢測(Automated Optical Inspection, AOI)系統更是生產品質控管的最佳幫手。這麼多領域所需要的異常偵測技術各有不同,無法一次道盡,本文將先針對傳統加工製造業最常遇到一元分類(或稱一類分類)(One-Class Classification, OCC)異常偵測開始說起。

2020年5月28日 星期四

【課程簡報】20200528_高科大工管_[工工/工管]人工智慧相關論文分析

完整課程簡報
【課程簡報】20200528_高科大工管_人工智慧如何開創工業工程與管理新契機

歐尼克斯實境互動工作室 2020/5/22整理

統計資料來源: 臺灣博碩士論文網 https://ndltd.ncl.edu.tw
統計日期: 2020/5/22
檢索條件:
  論文名稱 [人工智慧] AND 系所 [工業管理] 16筆
  論文名稱 [人工智慧] AND 系所 [工業工程] 55筆
  關鍵詞   [人工智慧] AND 系所 [工業管理] 13筆
  關鍵詞   [人工智慧] AND 系所 [工業工程] 34筆
  扣除重複,合計 92 筆,民國76~108年。
  以上檢索條件不包含摘要內文或實質內容為人工智慧論文

【課程簡報】20200528_高科大工管_人工智慧如何開創工業工程與管理新契機

很高興今天(2020/5/28)受高雄科大工業工程與管理系鍾毓驥老師邀約和大家分享「人工智慧如何開創工業工程與管理新契機」這項主題。此次簡報主要分為二個主題「人工智慧」與「智慧製造」,更完整內容可參考下列大綱及簡報內容。(點擊圖放大)

人工智慧
發展歷程、技術類型、應用範圍、開發流程、算力來源、運行環境、主要技能、線上學習

智慧製造
工業發展、研究方向、架構分析、應用案例(感測物聯、異常偵測、瑕疵檢測、路徑規畫、
行為分析、排程管理)、技術瓶頸、未來發展

參考連結:[工工/工管]人工智慧相關論文分析


2020年5月21日 星期四

【AI Hub專欄】後疫情時代人工智慧如何助攻疫情控制



圖/文 歐尼克斯實境互動工作室 許哲豪 2020/5/14

新冠肺炎(COVID-19)全球疫情目前仍持續延燒中,確診案例已突破400萬,死亡案例也逼近30萬大關[1]。透過戴口罩、減少社交活動、停止部份交通運輸及其它各種強制性手段,部份國家確診及死亡案例成長速度已開始趨緩甚至停止、下降。在有效治療方案及疫苗量產前仍不能太過大意,一旦放鬆警戒就有可能造成疫情再次擴散。

疫情初期重點可能放在如何檢疫、防堵及減少傳播,但長期禁止民眾活動,不僅造成個人身心承受過多壓力,更造成經濟停滯、失業率提升,因此目前許多國家已開始考慮逐步開放民眾半正常生活,開啟「後疫情時代」持續和病毒共存作戰。

為了使疫情在一定風險下仍能控制在可以負擔的程度內,動用大量人力實施體溫量測、列管人員行蹤監控、提醒社交距離及遠端照護等是最顯而易見的方式。若能藉人工智慧(AI)的力量來協助,就可大幅降低人力負擔、民眾不方便性及隱私問題,進而提高監控的有效性及執行效率。

接下來就以「列管人員定位」、「遠端居家照護」及「社交距離監控」為例,說明人工智慧如何在「後疫情時代」給予強力助攻控制疫情發展。

2020年5月16日 星期六

黑箱AI真的能被解釋?

最近看到台大教授徐宏民老師發表的可解釋性人工智慧(Explainable AI ,XAI)模組 xCos,可以成功解釋為何兩張人臉會辨識為同一人(或另一人)的原因。這篇論文[1]相當不錯,還有開源[2]給大家玩玩,有興趣的朋友可以試試。

2020年5月6日 星期三

有了Neuralet 開源社交距離偵測軟體再也不會有1968誤報了

最近新冠肺炎(COVID-19)疫情升溫,為保持社交距離及遠離人群較多熱點,所以交通部推出「1968」熱點警示APP,但利用車流偵測作為警示,準度連部份縣市首長都跳出來抱怨,難道就沒有在不侵犯個人隱私的情況下有更客觀更科學的作法嗎?

前不久知名AI專家吳恩達教授的Landing.ai團隊為了解決目前新冠肺炎(COVID-19)疫情而推出一個可以偵測社交距離的成果[1],雖然沒有明確說明是用了何種技術及表現如何,但從展示影片中大概可以推估可能是用了類似YOLO之類的物件偵測人的位置,再以外框盒的中心去量測兩兩之間的距離(像素),若太近則出現紅色警示,猜想還可能有做了簡單的距離(透視投影)校正,以修正較前景及後景物件實際距離接近但成像上差距不同問題。

【AI HUB專欄】如何應用人工智慧技術精準預測疫情發展



圖/文 歐尼克斯實境互動工作室 許哲豪 2020/4/23

自上次發文「新冠肺炎升溫如何應用人工智慧技術超前部署」[1]至今,短短兩週(2020/4/8~2020/4/21)依世界衛生組織(WHO)統計[2]又爆增104.5萬確診案例、8.3萬死亡案例,相當於這兩週產生的數量接近目前已知總數量(確診240.2萬,死亡16.3萬)的一半。而其中又以美國最為嚴重,確診總案例佔世界32.3%,死亡案例也達23.1%。由於疫情發展如此迅速,故世界各國無一不想得知疫情的可能發展趨勢,以利超前佈署並有效干預,使得疫情能快速降溫恢復正常日常活動。

2020年4月17日 星期五

【AI HUB專欄】新冠肺炎升溫如何應用人工智慧技術超前部署



圖/文 歐尼克斯實境互動工作室 許哲豪 2020/4/9

2019年底中國大陸武漢地區爆出大量不明肺炎患者後,旋即擴散到全世界。國際病毒分類委員會(ICTV)依病毒特徵類似造成2003年「嚴重急性呼吸道症候群(SARS)」,於是在今(2020)年2/11正式命名為「SARS-CoV-2」。而世界衛生組織(WHO)為了避免疾病名稱冠上地名造成歧視,亦於2/12將此疾病由俗稱的「武漢肺炎」正式命名為「新冠肺炎(COVID-19)」。

這項疾病僅僅三、四個月就造成全世界一百八十多個國家,一百三十多萬人確診感染,八萬多人不幸因病離世,而且這個數字還在不斷爆增中[1][2],猶如第三次世界大戰,因此各國及各大城市紛紛開始進行封城或降低社交活動以減緩疫情擴散。

回想2003年SARS造成亞洲地區嚴重傷害,雖然當時也沒有精確有效的醫療方法及藥物,但幸運地是不到半年疫情就莫名消失,經濟也在疫情結束後得到報復式成長,一掃先前不景氣造成的困境。不過這一次新冠肺炎(COVID -19)的疫情看起來不像當年那樣樂觀,因此世界各國無不繃緊神經,集結各領域產官學研專家、民間富豪、慈善機構及各路高手一起來腦力激盪,以期望除了能快速控制疫情外更能穩定經濟及失業率。

在此危難時刻有些人就把希望寄托在這兩年當紅的「人工智慧(Artificial Intelligence, AI)」上,而到底有那些AI技術是馬上能幫上忙的,有那些共享的AI資源可以使用的,接下來就為大家快速盤點一下,方便有心想投入AI防疫的朋友可以找到發揮的空間來超前部署。

Fig. 1 COVID -19各國確診人數變化圖(2020/1/21~2020/4/8)。(資料來源:[2])(點擊圖放大)

2020年4月11日 星期六

快來感受一下Intel RealSense D435每秒取像300張的高速攝影體驗吧

之前使用Intel RealSense D435時就對它的全局式快門(Global Shutter)表現就感覺不錯,在848x480解析度下可以達到每秒90張取像速度(Frame per Second, FPS),在鏡頭移動時取像不易模糊,較一般網路攝影機(Webcam)只有30FPS加上滾動式快門(Rolling Sutter)明顯好上許多。

最近看到Intel發出了更新文,只要把韌體更新一下就能讓D435原本的90FPS取像速度瞬間提升到300FPS,讓我瞬間HIGH了起來,不過冷靜看完全文[1]介紹後,雖然感覺有幫助,還是有點小失望,因為它用了在高級工業影像感測器中常會用到的局部掃描(Partial Scan)概念,而非真的全面提升取像速度。

什麼是局部掃描呢?這是一種為了不增加資料傳送頻寬卻可提高取像速度的作法。舉例來說,如果原來每秒可以傳送480條線影像資料90次,但現在只取其中100條線的資料傳送出來,其它就不要了,那理論上傳送速度就可提升4.8倍,變成每秒傳送100線資料432次。不過實際上要扣掉一些傳送封包及資料傳輸同步問題,所以會速度會再減少一些。所以此次D435的高速攝影模式就是運用這種概念,把848x480 90FPS變成840x100 300FPS,如Fig. 1所示。

Fig. Intel RealSense D435深度圖取像結果,左圖為848x480正常取像模式,右圖為840x100高速取像模式。(圖片來源:[1])(點擊圖放大)

2020年4月6日 星期一

宅男最愛Gatebox「全息初音」就要停止提供服務

2018年Gatebox推出全息投影(其實只是一般投影在透明膜上)初音未來版造成不少新聞,有許多廠家也陸續推出類似的產品,我也為此寫了好幾篇文章介紹:

AI智能虛擬助理介紹Gatebox/HoloBox/MxR Tube
https://omnixri.blogspot.com/2018/03/aigateboxholoboxmxr-tube.html

下一個要流行的會是「人工智能虛擬助理」嗎?
https://omnixri.blogspot.com/2018/07/blog-post.html

【AI_Column】影像式AI虛擬助理真的要來了嗎?(上)
https://omnixri.blogspot.com/2018/09/aicolumnai.html

【AI_Column】影像式AI虛擬助理真的要來了嗎?(下)
http://omnixri.blogspot.com/2018/09/aicolumnai_30.html

虛擬助理再進化真人尺寸虛擬警衛大變身
http://omnixri.blogspot.com/2019/05/blog-post.html

不過很可惜的是,2020年3月這項「虛擬助理」的服務就要停止了,希望未來還能有廠商以另外的形態產生,不然萬千宅男該何以安慰自己無助的心靈呀,哭哭!

相關新聞來源:《與初音未來結婚的男人》全息投影初音停止服務 近藤顯彥感謝老婆2年來的陪伴
https://news.gamme.com.tw/1680592?fbclid=IwAR3fCHDsLY-wjS6o_eZpXI5NMN5mObJM7FiC0X4h3n2Dq6kcKLzgSfUjMCw

圖片來源:https://www.youtube.com/watch?v=qzvD1VMxNfc

2020年2月2日 星期日

QT 5.14.1 QT3D QML 3D模型檢視器開發初體驗

個人使用QT已有好幾年了,之前主要是為了解決跨平台開發的問題,只要寫一次程式(含人機界面),經不同平台上重新編譯後就分別能在Windows和Liunx上執行。當然使用QT好處還不只這個,除了本身是開源程式開發工具外,另有許多現成圖形介(GUI)元件(如Widget、QML等)可用,省去不少的開發時間。最近新的版本(QT 5.14 + Creator 4.11)剛釋出,在3D繪圖上提供了更多的支援(如QT3D QML),包括支援最新的3D模型、骨架、動畫的格式檔glTF 2.0(就像3D界的PDF格式),簡化許多以前開發3D繪圖功能要自己用OpenGL或OpenGL ES基礎功能去組合的動作。於是立馬下載來玩玩,但一如往常,使用新功能前總有一堆坑要填,在說明如何使用QT3D QML方式來讀取常見的3D模型OBJ(不帶材質貼圖)格式前,先讓大家看看執行結果圖(Fig. 1)。至於如何讀取帶材質、骨架動畫的glTF 2.0格式3D模型就留待下次分解。

完整程式及可執行程式請參考本工作室Github開源程式庫

Fig. 1 QT3D QML方式讀取OBJ檔格式靜態3D模型結果。(OmniXR整理製作)(點擊圖放大)

2020年1月15日 星期三

如何解決樹莓派Pi 4未接螢幕時VNC解析度無法變更問題

之前使用樹莓派Pi 3時,若想不接螢幕就直接從遠端用VNC連線時,首先點選主選單[偏好設定]-[Raspberry Pi設定]後切換至[介面]頁面並勾選[VNC],再切回[系統]頁面強制指定[解析度],關機拔掉HDMI插頭從新開機,等待約一分鐘系統已順利啟動後,便可以VNC以指定螢幕解析度連線。

但到了樹莓派Pi 4時,舊的方法已不管用了,且強制指定解析度功能也從[系統]頁面被移除了。若直接勾選[介面]頁面下的[VNC]後,關機後再拔掉HDMI插頭,開機進入VNC連線後竟然畫面出不來,一片黑,原來是沒設解析度(採用預設解析度)造成。

為解決這個問題只好重新接上螢幕,開機完成後直接進到命令列模式下達 sudo  raspi-config,進到[Advanced Options]-[Resolution]設定解析度。本想關機後再拔掉HDMI插頭,重新開機進入VNC連線後就能正常,但奇怪的事發生了。螢幕是以1024x768顯示而不是指定的解析度。

經過一番爬文後得知是因Pi 4為使用GPU加速所在 /boot/config.txt 中設定dtoverlay=vc4-fkms-v3d 造成。有些網友說改 /boot/config.txt 中HDMI相關設定就可以,結果試了很多不同的設定方式都沒成功,VNC連線永遠螢幕解析度都是1024x768。

幾經波折終於找到一個方式可以解決,就是利用cvt查詢指定螢幕解析度的相關設定值,再用xrandr 新增(--newmode, --addmode)一個新的螢幕解析度,再強迫HDMI-1切換(-s)螢幕解析度。為了方便每次開機後能重新設定,於是新增了一個批次檔(set_res.sh)在桌面,執行後便可切換到想要的解析度,以下就是程式內容。

cvt 1280 720
xrandr --newmode "1280x720_60.00"   74.50  1280 1344 1472 1664  720 723 728 748 -hsync +vsync
xrandr --addmode HDMI-1 "1280x720_60.00"
xrandr -s 1280x720_60.00

2020年1月10日 星期五

從CES 2020看實境互動發展

CES 2020 消費性電子展這兩天(1/7~1/10)在美國拉斯維加斯熱鬧展開,台灣除了經常性參展的廠商外,科技部還率領了82家科技新創公司一起共襄盛舉,期望台灣的新創能量能被更多人看到,此次果然不負眾望,有十三個團隊獲得創新大獎,更多新聞可以參考「【CES 2020】科技部 TTA 82 家科技新創進軍 CES,勇奪 13 項新創大獎」。

CES 2020 實境互動相關技術(OmniXRI整理製作) (點擊圖片放大)

此次CES各廠商無不絞盡腦汁把最新技術端上檯面,希望能吸引到更多目光。個人雖然沒能親臨現場(因為沒有乾爹幫忙),但也很認真的把各家新聞及YOUTUBE上的採訪影片看了個遍。接下來就把個人最關注的「實境互動」領域相關的資訊整理一下,讓有興趣的朋友也能順便了解一下相關技術的最新發展。

2020年1月2日 星期四

【機器學習/大數據/資料採礦/深度學習】學習地圖

在學習【機器學習/大數據/資料採礦/深度學習/電腦視覺】的朋友總不知如何下手,網路上有許多大神幫大家整理好了,就像搭捷運一樣的簡單明暸,在此借花獻佛一下。有興趣的朋友可以參考一下。

資料來源:Swami Chandrasekaran (點擊圖片放大)

1. 基礎技能(Fundamentals)
2. 統計(Statistics)
3. 程式設計(Programming)
4. 機器學習(Machine Learning)
5. 文字採礦/自然語言處理(Text Mining / Natural Language Processing)
6. 資料視覺化(Data Visualization)
7. 巨量資料(Big Data)
8. 資料擷取 (Data Ingestion)
9. 資料轉換 (Data Munging)
10. 工具(Toolbox)

資料來源:Weslynn (點擊圖片放大)

1. 物件分類 (Object Clasification)
2. 物件偵測 (Object Detection)
3. 物件分割 (Object Segmentation)
4. 小模型 (Small Model)
5. 姿態估測 (Pose Estimation)
6. 文字偵測/辨識 (Text Detection/Recognition)
7. 人臉偵測 (Face Detection)
8. 人臉辨識 (Face Reconition)
9. 人臉對齊 (Face Alignment)
10. 藝術 (Art)
11. 立體 (3D)
12. 對抗生成網路 (GAN)